比尔·盖茨的中国行还在继续,这是他的第 18 次来华之旅。
他创办的微软给 OpenAI 投资了一百多亿美元,在全球范围内掀起了 AIGC 狂潮,中国的大模型也在遍地开花。
盖茨坦言正在见证人生的第二次革命性时刻,今年 3 月他曾发表一篇名为 The Age of AI has begun 的博文。
他认为,人工智能的革命性创新,和个人计算机、互联网和移动电话一样。它将改变人们工作、学习、旅行、医疗和沟通的方式,甚至减少世界上一些最严重的不公平现象。
这个节点重看这篇文章很有意思,以下是全文翻译:
下一代工具将更加高效,它们将能够预测副作用并确定剂量水平。盖茨基金会在 AI 方面的优先事项之一是确保这些工具用于影响世界上最贫困人口的健康问题,包括艾滋病、结核病和疟疾。
同样,政府和慈善组织应该为公司创造激励,以分享关于贫穷国家人民种植的作物或牲畜的 AI 生成的见解。AI 可以帮助根据当地条件开发更好的种子,根据他们所在地的土壤和天气建议农民种植最好的种子,并帮助开发用于家畜的药物和疫苗。随着极端天气和气候变化对低收入国家的自给自足农民施加更大压力,这些进步将变得更加重要。
你可能已经读过有关当前 AI 模型的问题。例如,它们并不一定擅长理解人类请求的上下文,这导致了一些奇怪的结果。当您请求 AI 编 写一些虚构的东西时,它可以很好地完成。但是当您请求有关旅行建议时,它可能会推荐不存在的酒店。这是因为 AI 不够了解你的语境,无法确定它是否应该生成虚假酒店,还是只告诉你有空房间的真实酒店。
还有其他问题,例如在处理抽象推理时 AI 经常会出错,给出错误的答案。但这些并不是人工智能的根本限制。开发人员正在解决这些问题,我认为这些问题可以在不到两年时间内被基本解决,甚至更快。
其他问题并不来自于是技术。例如,人类武装 AI 所构成的威胁。与大多数发明一样,人工智能可以用于善意或恶意。政府需要与私营部门合作,寻找限制风险的方法。
然后,还有 AI 可能失控的可能性。机器可以决定人类是一种威胁,得出它的利益与我们不同,或者简单地不再关心我们吗?可能,但这个问题今天并不比人工智能发展的过去几个月的发展更为紧迫。
超级智能 AI 在我们的未来中。与计算机相比,我们的大脑的操作速度极慢:大脑中的电信号的速度是硅芯片上信号速度的 1/100000。一旦开发人员能够推广学习算法并以计算机的速度运行它——这可能需要 10 年或 100 年的时间,我们将拥有一个非常强大的 AGI。它将能够完成人类大脑能够完成的一切,但没有任何关于其记忆大小或操作速度的实际限制。这将是一个意义深远的改变。
众所周知,这些「强大」的 AI,可能能够确定自己的目标。这些目标会是什么呢?如果它们与人类的利益冲突会发生什么?我们应该尝试防止强 AI 的开发吗?这些问题将随着时间的推移变得更加紧迫。
在软件方面,驱动 AI 学习的算法将变得更好。在某些领域,例如销售,开发人员可以通过限制它们工作的领域并为它们提供特定于这些领域的大量训练数据,使 AI 变得非常准确。但是一个大问题是,我们是否需要许多这些专门的 AI 用于不同的用途——例如一个用于教育,另一个用于办公室生产力——或者是否可能开发出一种人工通用智能,它可以学习任何任务。这两种方法都将面临巨大的竞争。
无论如何,AI 的主题将在可预见的未来主导公共舆论。我想给出三个对话原则。
首先,我们应该尝试平衡对 AI 不利方面的担忧——这些担忧是可以理解和有效的——以及它改善人们生活的能力。为了充分利用这项卓越的新技术,我们需要既防范风险,又将利益扩展到尽可能多的人。
其次,市场力量不会自然产生帮助最贫困人群的 AI 产品和服务。情况更有可能会是反过来的。通过可靠的资金和正确的政策,政府和慈善团体可以确保 AI 被用于减少不平等。正如世界需要其最聪明的人关注其最大的问题一样,我们需要将世界上最好的 AI 聚焦于其最大的问题。
虽然我们不应该等待这种情况发生,但有趣的是,是否人工智能会发现不平等并尝试减少它。您是否需要有道德感才能看到不平等,还是纯理性的 AI 也会看到它?如果它确实认识到不平等,它会建议我们对此做些什么?