这个解释一下 英文下

解释一下这个复合概率公式设 ti = (A|ti),下面这个公式是怎么来的:P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]请用公式推导或用语言解释清楚_百度作业帮
解释一下这个复合概率公式设 ti = (A|ti),下面这个公式是怎么来的:P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]请用公式推导或用语言解释清楚
解释一下这个复合概率公式设 ti = (A|ti),下面这个公式是怎么来的:P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]请用公式推导或用语言解释清楚
设B:t1 ,t2,t3……tn全发生P(A|t1 ,t2,t3……tn)=P(A|B) = P(AB)/P(B)P(AB)=P(A t1)*P(A t2)...P(A tn)=P1*P2*...PNP(A_cB)=P(A_c t1)*...*P(A_c tn) =[1-P(A t1)]*...*[1-P(A tn)] = (1-P1)*(1-P2)*……(1-PN)P(B)=P(AB)+P(A_c B) = P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)=>P(A|t1 ,t2,t3……tn)=P(AB)/P(B)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]
左边式子 :在T1...TN的条件下,A的概率,把Ti=ti的条件下A发生代入是说在(n个)(ti的条件下A 发生)的条件下A发生的概率不知道我说的明白不,就是t1....tn全发生且A发生。。。。。。。。。为分子t1......tn全发生。。。。。为分母 再具体点,TI....TN全发生: 包括A发生A不发生,所以式子分母会多一部分...
p1、p2…… 同时发生的概率占
p1、p2同时发生和同时不发生的概率和
为什么分母中不含 p1 p2 ...中有的发生有的不发生的概率?机器学习包括有监督学习(supervised learning),无监督学习(unsupervised learning),和半监督学习(semi-supervised learning).在*有监督学习中,数据是有标注的,以(x, t)的形式出现,其中x是输入数据,t是标注.正确的t标注是ground truth, 错误的标记则不是。(也有人将所有标注数据都叫做ground truth)由模型函数的数据则是由(x, y)的形式出现的。其中x为之前的输入数据,y为模型预测的值。标注会和模型预测的结果作比较。在损耗函数(loss function / error function)中会将y 和 t 作比较,从而计算损耗(loss / error)。 比如在最小方差中:因此如果标注数据不是ground truth,那么loss的计算将会产生误差,从而影响到模型质量。比如输入三维,判断是否性感:1. 错误的数据标注数据1 ( (84,62,86) , 1),其中x =(84,62,86), t = 1 。 标注数据2 ( (84,162,86) , 1),其中x =(84,162,86), t = 1 。
这里标注数据1是ground truth, 而标注数据2不是。预测数据1 y = -1预测数据2 y = -12. 正确的数据标注数据1 ( (84,62,86) , 1),其中x =(84,62,86), t = 1 。 标注数据2 ( (84,162,86) , 1),其中x =(84,162,86), t = -1 。
(改为ground truth)这里标注数据1和2都是ground truth。预测数据1 y = -1预测数据2 y = -1由于使用错误的数据,对模型的估计比实际要糟糕。另外,标记数据还被用来更新权重,错误标记的数据会导致权重更新错误。因此使用高质量的数据是很有必要的。* 在半监督学习中,对标记数据也要进行比较
就是参考标准,一般用来做error quantification。比方说要根据历史数据预测某一时间的温度,ground truth就是那个时间的真实温度。error就是(predicted temperature - real temprature)。&br&&br&Ground truth当然还可以用来做reinforcement learning,就是在学习中加入奖励机制。比方说程序的输出越接近ground truth,用来产生这个结果的数据的weight越大。&br&&br&Wiki中的解释是:&br&&p&In &a href=&///?target=http%3A//en.wikipedia.org/wiki/Machine_learning& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&machine learning&i class=&icon-external&&&/i&&/a&, the term &ground truth& refers to the accuracy of the &a href=&///?target=http%3A//en.wikipedia.org/wiki/Training_set& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&training set&i class=&icon-external&&&/i&&/a&'s classification for &a href=&///?target=http%3A//en.wikipedia.org/wiki/Supervised_learning& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&supervised learning&i class=&icon-external&&&/i&&/a& techniques. This is used in &a href=&///?target=http%3A//en.wikipedia.org/wiki/Statistical_model& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&statistical models&i class=&icon-external&&&/i&&/a& to prove or disprove &a href=&///?target=http%3A//en.wikipedia.org/wiki/Research& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&research&i class=&icon-external&&&/i&&/a&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Hypothesis& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&hypotheses&i class=&icon-external&&&/i&&/a&. The verb &ground truthing& refers to the process of gathering the proper objective data for this test. Compare with &a href=&///?target=http%3A//en.wikipedia.org/wiki/Gold_standard_%28test%29& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&gold standard (test)&i class=&icon-external&&&/i&&/a&.&/p&&p&&a href=&///?target=http%3A//en.wikipedia.org/wiki/Bayesian_spam_filtering& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Bayesian spam filtering&i class=&icon-external&&&/i&&/a& is a common example of supervised learning. In this system, the algorithm is manually taught the differences between spam and non-spam. This depends on the &i&ground truth&/i& of the messages used to inaccuracies in that ground truth will correlate to inaccuracies in the resulting spam/non-spam verdicts.&/p&
就是参考标准,一般用来做error quantification。比方说要根据历史数据预测某一时间的温度,ground truth就是那个时间的真实温度。error就是(predicted temperature - real temprature)。Ground truth当然还可以用来做reinforcement learning,就是在学习中…
神经网络/自然语言处理帮我看看这CPU市场价格大概在多少钱和解释一下这CPU的功能.还有解释一下下面的意思_百度知道
帮我看看这CPU市场价格大概在多少钱和解释一下这CPU的功能.还有解释一下下面的意思
手提电脑和台式电脑都能用么:
CPU上边写着,和能用在什么方面上:
AMD Sempron(TM)
SDA3000AI02BX
LFBAE 0702CAA
X80解释一下是什么意思CPU上边写着
呵呵 呃.还有问题问题的意思? 我的是全新原装货了.是什么意思.谢谢各位了.最后两行的CPU都不同的.回答完之后看完立刻采纳速度帮我解答我所问的所有问题.我想知道的是大概卖多少钱.谢谢 不想收藏几千个在家.谢谢.十万火急了 市场价格市场价格!谢谢.麻烦了。急急急急急急急急急急.所以请帮我解释一下到底有什么用.高求速度.80高求答案.要答案..它下面还有两行字DIFFUSED IN SINGAPORE
MADE IN CHINA麻烦完善一下我问的问题..每一行都帮我解释下哦
提问者采纳
清楚了、果然是低端型号、所以不能给出具体用途,简单的说 “ADA3800IAA4CN”、是个台式机的型号、唯一能确定的是、AMD ATHLON tm64 这个表示AMD 阿斯龙 64位 ADA3800IAA4CN 这个表示、这款cpu在07年就停产了、华硕 P5KPL-AM SE、、?全新的买不到五十、 等等、、、,“I”代表采用Socket AM2接口、、但可以清楚地告诉你、、收藏了吧这是一款闪龙的低端cpu、他的价值不是很大、,其中ADA3800代表桌面用速龙64 3800+、这些主板也就三四百块钱。 LFBCF 0702GAA 这个表示07年2周生产 X07 这个就不知、他是AMD 闪龙 3000+、、还是利用空间不大、、,“CN”则代表采用Orleans核心、由于所给的信息不足以判断出它的具体型号、、、可以用的主板有华硕 P5G41C-M LX、,后面的4代表L2级缓存为512KB、、不要抬杠,“AA”代表具备智能温控技术、、、、肯定不能同时用在笔记本和台式机上、、 几千个、这要匹配相应的主板、
提问者评价
其他类似问题
为您推荐:
一下下的相关知识
其他4条回答
第一行指的是:生产日期07年第02周生产的。 最后那个指的是在新加坡生产这种CPU淘宝上20元左右一个,“A”表示采用Socket 754 OPGA封装。第四行是产口识别码就像身份证式的每个U一个号,“BX”表示是E6核心,“I”表示工作电压为1:AMD的“闪龙”处理器第二行指的是。第三行指的是,其中“SDA”表示桌面型Sempron处理器,“2”表示二级缓存L2容量为128KB,“3000”表示PR值为3000+.4V,“O”表示最高温度为69°:产品编号为“SDA3000AI02BX”
是AMD的速龙的CPU。主频1.8。外频200。倍频9。754针的、SDA3000AI02BX
LFBAE 0702CAA。这些的意义不大,可以忽略,几年前的CPU了,性能不是很好了,用在台式机上,现在几乎没有新的了,旧的也就2,3十吧,这个CPU在1G内存的情况下勉强的可以运行一些基本的网络游戏,显卡旧的配60元以上的。基本的浏览网页和小游戏,或少开一两个任务还能基本流畅,多了会死机。
不太好吧,台式的不行,你自己去攒台电脑的,花就能攒个特别号的电脑
AMD Sempron(TM) AMD公司的Sempron(闪龙)系列CPU,SDA3000AI02BX。SDA表示Sempron处理器,3000表示PR值为3000+。A表示Socket 754 OPGA封装754针,64位,二级缓存为128K.表示工作电压1.4V,0表示最高温度69,2表示二级缓存容量为128K,BX表示产品为E6核心的Sempron 64,剩下的基本上没有必要讲了。
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁&& 查看话题
FTIR分析 帮忙解释一下这个分析结果
如图所示,作者给出的分析如下:
There is a substantial decrease in the absorption intensity of –NH bending (cm-1)and –NH stretching (3388cm-1) after Cr adsorption.
1.我想知道作者是从何得到在波数cm-1和3388cm-1处吸收峰值持续降低呀,怎么丝毫看不出来?
2.我对FTIR图谱接触不多,想咨询一下如果把吸附前后的图形放置在同样一组图形当中的话,难道他们的透光率不会重叠在一起吗,还是把吸附后的透光率统一向下挪了某个值呢?
纵坐标没有刻度,数据线是平移过的。 : Originally posted by fds329 at
纵坐标没有刻度,数据线是平移过的。 拜托大婶不要惜字如金了
呵呵 貌似我懂了一点
意思是透光率是偏移了的
如果换做同一个透光率平行看的话
确实很明显的吸收峰下降:victory: : Originally posted by TonyGeN at
拜托大婶不要惜字如金了
呵呵 貌似我懂了一点
意思是透光率是偏移了的
如果换做同一个透光率平行看的话
确实很明显的吸收峰下降:victory:... :tiger36: 对红外,婶也不是很在行,只做过一次测试。
但是我的其它测试常这么作图,把数据线整体沿着纵坐标平移进行对比。 确定你测的物质在处理前后比较稳定的化学键,找出它的吸收峰,把两个谱图在此处拉平,以此作为基线,对比其它吸收峰强度变化。不过红外一般都是定性分析,定量方面不够准确。还有我不知道楼主是不是应该把透射转化成吸光度来对比? 通过相对的光谱透过率可以看出来cm-1和3388cm-1 有明显的降低,简单的方法是从峰值处向底线做垂直线,观察长度即可。
此图经过了平移,所以看不来不是太容易。 比较容易的比较方法是把光谱的基线放到同一个位置,这样峰值的大小和变化就比较容易观察和解释了。 红外这东西解释起来好多时候都很牵强,有的时候会找理由去解释图的变化,有的时候又会为了采用某个论据而去寻找图上的变化,尽管有的变化不明显。
图谱不平移看不出来, 所以就把纵坐标处理了。 确定你测的物质在处理前后比较稳定的化学键,找出它的吸收峰,把两个谱图在此处拉平,以此作为基线,对比其它吸收峰强度变化 这个肯定是上下平移了,定性分析是可以很方便的对比在同一波数处,那些峰消失了,那些峰出现了,消失的峰对应着这个官能发生了变化,新出现的峰对应着新的官能团的产生! 这个图是这样做出来的:步骤如下:1.在origin里倒入两个红外数据
2.将其中一个要上下平移的column选中右键,点击set column values出现下图,依次操作即可!
QQ截图47.png
QQ截图47.png : Originally posted by 马占伟 at
这个图是这样做出来的:步骤如下:1.在origin里倒入两个红外数据
2.将其中一个要上下平移的column选中右键,点击set column values出现下图,依次操作即可!
QQ截图47.png
QQ截图47.png
... 非常感谢哥儿们的耐心解答
我的作图方式可能跟你不一样
我是直接将图形做出来之后
选择了工具选项里面的平移纵坐标按钮 进行平移的 : Originally posted by TonyGeN at
非常感谢哥儿们的耐心解答
我的作图方式可能跟你不一样
我是直接将图形做出来之后
选择了工具选项里面的平移纵坐标按钮 进行平移的... 你好,你是怎么平移的,可否具体指教一下,谢谢

我要回帖

更多关于 解释一下 英文 的文章

 

随机推荐