首页 > 资讯 > 科技 > 正文
2022-11-04 14:49

为什么大数据不再是优先考虑的问题,以及其他值得关注的人工智能趋势

Luis Ceze(左)和Oren Etzioni(右)在西雅图Madrona智能应用峰会上。屏幕上的卡洛斯·盖斯特林,从斯坦福打来的。(Madrona图)

生成全新内容的人工智能模型正在为企业家创造一个充满机会的世界。工程师们正在学习用更少的资源做更多的事情。

这是本周在西雅图由Madrona Venture Group主办的智能应用峰会上的一个小组讨论得出的一些结论。

斯坦福大学计算机科学教授Carlos Guestrin说:“在我看来,大数据不再是优先考虑的问题。”“你可以用很少的数据解决复杂的问题。”

位于西雅图的机器学习初创公司Turi的联合创始人古斯特林表示,研究人员并没有通过输入更多数据来改进AI模型,而是更专注于修改他们的底层蓝图。Turi于2016年被苹果收购。

人工智能蓝图一直在快速变化,导致了像DALL-E和GPT-3这样的模型,可以根据最初的提示产生幻觉图像或文本。

这种新的“基础”AI模型是新兴初创公司生成书面内容、解释对话或评估视觉数据的基础。艾伦人工智能研究所(Allen Institute for Artificial Intelligence, AI2)的技术总监奥伦·埃齐奥尼(Oren Etzioni)表示,它们将使许多用例成为可能。但它们也需要被驯服,以减少偏见和更可靠。

“这些模型的一个巨大挑战是它们会产生幻觉。他们说谎,他们创造,他们发明东西,”Etzioni说,他也是Madrona的风险合伙人。

Guestrin和Etzioni是在由UW计算机科学教授Luis Ceze主持的炉边聊天中发表上述言论的,Luis Ceze也是Madrona风险投资合伙人和西雅图人工智能初创公司OctoML的首席执行官。

OctoML入选了Madrona与其他公司合作的智能应用创业公司40强名单。榜单上的初创公司自成立以来已经筹集了超过160亿美元,其中包括今年年初以来的50亿美元。

继续阅读讨论的更多亮点。

新的人工智能模型正在改变工程师的工作方式

工程师习惯于用独特的技术栈为单个任务构建不同的AI模型,比如预测机票价格或医疗结果,他们习惯于在模型中预先填充大量的训练数据集。但是现在,使用更少的数据作为输入,工程师们正在细化基础模型来构建特定的工具,Guestrin说。

Guestrin说:“通过大型语言模型和基础模型,我们正在完全改变我们对开发应用程序的想法,超越大数据的概念。”他补充说,工程师们正在使用“特定于任务的、习惯化的小数据集来进行微调提示,从而产生你真正关心的垂直解决方案。”

Etzioni补充道:“现在,通过基础模型,我构建了一个单独的模型,然后我可以对它进行微调。但很多工作都是提前完成的,而且只做一次。”

人工智能已经“民主化”

人工智能工具对专业技能不那么高的工程师来说越来越容易获得,构建新工具的成本也开始下降。盖斯特林说,公众也可以通过戴尔- e等工具获得更多信息。

Guestrin说:“我对大型语言模型、基础模型是如何让开发者以外的人用AI做惊人的事情感到敬畏。”“大型语言模型让我们有机会为编程创造新的体验,将人工智能应用程序带给更广泛的人群,这些人从未想过自己会编写人工智能程序。”

偏见仍然是一个问题

偏见一直困扰着人工智能模型。在新的生成式AI模型中,这仍然是一个问题。

Guestrin以一个故事制作工具为例,它可以根据王子的种族创造不同的童话结局。如果让这个工具创造一个关于白人王子的童话故事,它会说他很英俊,公主爱上了他。如果让她创作一个黑色王子的故事,公主会感到震惊。

关于人工智能模型的偏见以及它们反过来影响社会偏见的能力,Guestrin说:“我非常担心这个问题。”

Etzioni说,正在开发的新技术将更好地消除偏见。

Guestrin说工程师需要在开发的所有步骤考虑这个问题。他说,工程师最重要的关注点应该是如何评估他们的模型和管理他们的数据集。

Guestrin补充道:“认为解决我们的人工智能和我们的价值观之间的差距只是我们最后可以撒在上面的一些盐,就像一些后期处理一样,这是一种有限的视角。”

人力投入将是改进模型的关键

Etzioni用互联网搜索引擎做了一个类比,在早期,互联网搜索引擎通常需要用户以不同的方式搜索才能得到他们想要的答案。谷歌在了解人们从数十亿个查询中点击了什么之后,擅长磨练输出。

Etzioni说:“随着人们对这些引擎的查询和重新查询,这些引擎将更好地满足我们的需求。”“我非常相信,我们会让人类进入这个圈子。但这并不是技术的障碍。”

AI也不能预测自己的最佳用例。Etzioni说:“如果你问GPT-3建立新公司的最佳和最高用途是什么,你得到的将是垃圾。”

提高可靠性是一个重点

“这些模型尽管令人惊叹,但很脆弱。他们可能会以灾难性的方式失败。”

Guestrin说,研究人员应该学习如何更好地定义他们的目标,并询问如何系统地测试和评估系统,以使它们更安全。他补充说,研究人员应该“带着更多的软件工程思维”。

学习如何使AI模型更加可靠是Guestrin团队在斯坦福大学和AI2研究所的主要研究重点。

“要让基于gpt -3的应用程序运行核电站,还需要非常长的时间。这不是那种技术,”Etzioni说。“这就是为什么我认为它与网络搜索引擎的类比是如此深刻。如果我们有人在循环中,如果我们有快速迭代,我们就可以以一种非常强大的方式使用高度不可靠的技术。”

相关推荐