AI怎学说话最自然?ElonMusk认为从美国PTTRedd

2020-06-06|浏览量:640|点赞:357
AI怎学说话最自然?ElonMusk认为从美国PTTRedd

人工智慧是科技巨头目前重点发展方向这点大家都知道,但怎幺让 AI 学的好又精準,这就考验各家的功夫了。Elon Musk 旗下的人工智慧公司 OpenAI 在八月的时候,从 NVIDIA CEO 黄仁勋手上亲自收到一份大礼:一台每秒浮点运算可达 170 Tflops 超级电脑 DGX-1,黄仁勋甚至宣称它是「世上第一台专为人工智慧学习所设计的超级电脑」。

那 Elon Musk 与 OpenAI 拿它来做什幺呢?学路况辨识协助 Tesla 自动驾驶?不。拿来算 SpaceX 火箭的发射轨道?也不是。嗯 答案有点意外,是学有美国 PTT 之称的网路论坛「Reddit」!

可别以为这在开玩笑。事实上,这项计画 被美国媒体 誉为「人工智慧产业发展以来,最困难的挑战之一。」大家光从 PTT 就可想而知,要 AI 完全理解乡民们说话有多困难。不同于学术论文或是正式新闻稿,乡民们的梗、流行语或反讽对 AI 可是困难重重。但反过来说,如果 AI 连乡民说的话都能理解,在机器学习语言上真的可谓一大突破。

OpenAI 最终目的是要将人工智慧训练成一个「正常人」,正常到你跟它对话时,无法察觉它是 AI。不过对 OpenAI 来说,真正的挑战可能就在于避免重蹈 微软「Tay」的覆辙 。Tay 才上线一天,就被乡民恶搞成满口粗言的种族歧视者。既使这一年来,Reddit 的发言规则逐渐变得严格,但从 Reddit 学习语言的确还是会有类似 Tay 的风险。

会挑 Reddit 的另一个原因就是它「够大」。毕竟对机器学习来说资料量越多越好,Reddit 目前为止已有近 20 亿条发文,OpenAI 的研究员 Andrej Karpathy 表示 DGX-1 估计将在几个月内就可完成整套学习流程,而且还不用套用新的演算法,「只要增加模型的大小就可以了」。或许很快在明年初甚至今年年底之前,我们就能看到 OpenAI 的 AI 现身跟我们聊天。

上一篇: 下一篇:

相关推荐