没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论
IntroductiontoN-grams
Language
Modeling
DanJurafsky
Probabilistic Language Models
• Today’sgoal:assignaprobabilitytoasentence
• MachineTranslation:
• P(high windstonite)>P(largewindstonite)
• SpellCorrection
• Theofficeisaboutfifteenminuetsfrommyhouse
• P(aboutfifteenminutesfrom)>P(aboutfifteenminuetsfrom)
• SpeechRecognition
• P(Isawavan)>>P(eyesaweofan)
• +Summarization,question-answering,etc.,etc.!!
Why?
DanJurafsky
Probabilistic Language Modeling
• Goal:computetheprobabilityofasentenceor
sequenceofwords:
P(W)=P(w
1
,w
2
,w
3
,w
4
,w
5
…w
n
)
• Relatedtask:probabilityofanupcomingword:
P(w
5
|w
1
,w
2
,w
3
,w
4
)
• Amodelthatcomputeseitherofthese:
P(W)orP(w
n
|w
1
,w
2
…w
n-1
)iscalledalanguage model.
• Better:the grammar Butlanguage model orLM isstandard
DanJurafsky
How to compute P(W)
• Howtocomputethisjointprobability:
• P(its,water,is,so,transparent,that)
• Intuition:let’srelyontheChainRuleofProbability
DanJurafsky
Reminder: The Chain Rule
• Recallthedefinitionofconditionalprobabilities
p(B|A) = P(A,B)/P(A) Rewriting:P(A,B) = P(A)P(B|A)
• Morevariables:
P(A,B,C,D)=P(A)P(B|A)P(C|A,B)P(D|A,B,C)
• TheChainRuleinGeneral
P(x
1
,x
2
,x
3
,…,x
n
)=P(x
1
)P(x
2
|x
1
)P(x
3
|x
1
,x
2
)…P(x
n
|x
1
,…,x
n-1
)
剩余77页未读,继续阅读
资源评论
AI新视界
- 粉丝: 2w+
- 资源: 22
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功