麻省理工学院的研究人员利用深度学习模型发现了数十年来的第一种新型抗生素。由此产生的抗生素可以扭转对耐药细菌的趋势。
当亚历山大·弗莱明发现世界上第一种抗生素青霉素时,他意识到了相关的危险。
在1945年的诺贝尔奖获奖感言中,弗莱明说,“那么就有这样一种危险,那就是无知的人可能会轻易地让自己服药不足,让自己的微生物接触到非致命量的药物,从而产生抗药性。”
随着新型抗生素的开发,滥用和不正确的处方导致他们针对的细菌逐渐对这些以前有效的药物产生耐药性。
Jim Collins博士在麻省理工学院柯林斯实验室领导的团队早在2020年就启动了抗生素人工智能项目,以解决这个问题。该项目有一个为期七年的计划,开发七种新型抗生素,以治疗世界上七种最致命的细菌病原体。
他们使用机器学习的努力已经开始得到回报,因为他们的论文宣布他们发现了一种新的抗生素,可以杀死耐甲氧西林金黄色葡萄球菌(MRSA)细菌。耐药性MRSA感染仅在美国每年就导致多达10,000人死亡。
制药公司并没有把他们的研究更多地放在抗生素上,因为抗生素不像其他药物那么有利可图。发现新的抗生素也变得越来越困难。AI让它变得容易多了。
深度学习模型
创造一种新抗生素的挑战是,存在着近乎无限的分子排列,很难知道其中哪一种会杀死特定的细菌。更复杂的是,研究人员需要确保这种新化合物也不会杀死健康细胞。
麻省理工学院的团队创建了一个包含39,000种不同化合物及其对金黄色葡萄球菌的影响的数据库。他们还通过跟踪这些化合物对人类肝脏、骨骼肌和肺细胞的影响来整合它们的细胞毒性。
关于化合物化学结构的信息也被添加到数据集中,然后用来训练深度学习人工智能模型。
基于大型数据集,该模型能够了解哪些化学结构最有可能杀死细菌,同时避免对健康细胞产生不良影响。
经过训练后,人工智能模型被用于筛选1200万种市售化合物。该模型确定了五种不同类别的分子,预计这些分子将杀死MRSA细菌。
根据明显缩减的候选化合物列表,研究人员获得了280种化合物来测试在实验室培养皿中生长的MRSA细菌。他们的测试导致发现,其中两种化合物将MRSA降低了10倍。
可解释的ai
人工智能模型通常会给我们有用的答案,但它们可能是难以理解的黑匣子,无法让我们深入了解它们是如何得出答案的。
麻省理工学院和哈佛大学的博士后Felix Wong和Erica Zheng是这项研究的主要作者之一,他说:“我们在这项研究中开始做的是打开黑匣子。这些模型由大量模拟神经连接的计算组成,没有人真正知道引擎盖下面发生了什么。
了解是什么导致模型选择它所做的化合物将使研究人员更好地了解在哪里寻找更有效的药物。该研究团队使用了一种适应性的蒙特卡洛树搜索算法来深入了解他们的深度学习模型的决策过程。
柯林斯博士解释说:“这里的见解是,我们可以看到模型学到了什么,以预测某些分子将成为好的抗生素。
与麻省理工学院一起,这项研究也得到了布罗德研究所,集成生物科学,韦氏生物启发工程研究所和德国德累斯顿的莱布尼茨聚合物研究所的贡献。
使用人工智能来筛选数百万种潜在的化学排列正在对药物发现产生巨大影响。对于柯林斯实验室来说,这是一个“一次失败,六次失败”的情况,看起来他们的七年项目可能还有空闲时间。
麻省理工学院教授、物理学家、未来生命研究所联合创始人Max Tegmark对人工智能发展的无情步伐提出了担忧。
他认为,科技公司之间的激烈竞争使得强有力的自我监管变得不太可能。
在短短一年的时间里,OpenAI和谷歌等主要参与者已经发布了至少两代人工智能模型。
GPT-4代表着对GPT-3.5的巨大改进,比其参数帐户高出约5至10倍。
今年早些时候,Tegmark率先发表了一封公开信,呼吁暂停开发先进人工智能系统六个月。
这封信得到了业界领袖、政界人士和各种公众人物的大力支持,有超过3万名签名者,包括埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克。
这封信生动地描述了肆无忌惮发展人工智能的潜在危险。如果谷歌、OpenAI、Meta和微软等主要人工智能参与者无法就如何在降低风险的同时利用人工智能的好处达成共识,它敦促各国政府进行干预。
人工智能安全中心(CAIS)将人工智能风险比作核战争
在第一封信之后,CAIS发表了一份得到众多技术领袖和学者支持的声明,将人工智能与大流行病和核战争带来的社会风险进行了比较。
这个CAIS声明称“减轻人工智能灭绝的风险应该是全球优先事项,以及其他社会规模的风险,如大流行病和核战争。
然而,尽管人们认为在监管生效之前,自我监管是必要的,但科技行业在很大程度上继续以与人工智能发展相同的速度前进。
Tegmark反思了这封信的影响以及它在阻止人工智能发展方面取得有限成功的原因,《卫报》说。“我觉得,私下里与我交谈过的许多企业领导人都希望(暂停),但他们陷入了这场相互竞争的谷底。因此,没有一家公司可以单独暂停。”
然而,Tegmark指出,围绕提高对人工智能安全的政治意识的辩论正在升温,比如美国参议院听证会、查克·舒默的第一次人工智能洞察论坛,以及11月在英国举行的全球人工智能安全峰会。
展望未来,Tegmark警告说,不要将“神般的通用智能”的发展视为遥远的威胁,他指的是人工智能社区中的一些人,他们认为它的实现可能比许多人预期的更接近——即OpenAI。
Tegmark最后强调了安全标准在人工智能开发中的重要性,并对开源人工智能模型(如Meta的Llama 2)表示担忧。
他警告说,“危险的技术不应该开源,无论是生物武器还是软件。
麻省理工学院(MIT)的研究人员开发了一种人工智能技术,旨在使机器人能够使用整个身体操纵物体。
使用身体不同部位的多个接触点操纵物体对机器人来说是一个巨大的挑战。人类擅长全身操作,无缝地搬运大箱子或拿不规则的物体。
然而,由于物体与身体不同部位之间有许多接触点,机器人在复杂的操作任务中的能力要差得多。
电气工程和计算机科学(EECS)研究生、该研究论文的联合主要作者H.J.特里·苏表示:“与其把这当作一个‘黑匣子’系统来思考,不如利用模型来利用这类机器人系统的结构,这样就有机会加快做出这些决策的整个过程,并提出人脉丰富的计划。”
在其核心,麻省理工学院研究人员的工作解决了机器人操纵任务的计算强度和复杂性,特别是那些涉及丰富接触场景的任务。机器人在规划操作任务时需要考虑无数种与物体接触的可能性,这导致了大量的计算。
传统上,强化学习(RL)方法被用来解决这一问题,但它们需要大量的计算资源和时间。
这项研究引入了“平滑”来解决这个问题。”平滑”过程通过减少机器人需要考虑的接触事件的数量来简化计算负担。它将无数潜在的联络点浓缩成一套可管理的关键决策。
从本质上讲,机器人可能做出的许多无关紧要的动作和接触都被平均剔除,只剩下需要计算的关键交互点。
为了实现“平滑”,该团队设计了一个基于物理的模型。 该模型有效地复制了强化学习方法中隐含的非关键交互作用的“平均”。
该团队在模拟和真实机器人硬件中测试了他们的方法,显示出与强化学习相当的性能,但计算成本只有很小一部分。
实际应用
这项研究的意义可能是深远的。在工业领域,该技术可以允许使用更小、更机动的机器人,这些机器人可以更灵活地执行复杂的任务。
这可以减少能源消耗和降低运营成本。除了工厂,这项技术还可能成为太空探索任务的游戏规则改变者,使机器人能够以最少的计算资源快速适应不可预测的地形或任务。
此外,这些计算方法可能有助于研究人员构建出有能力的、栩栩如生的双手。
麻省理工学院EECS的资深作者、丰田教授Russ Tedrake说:”能够实现全身操纵的想法也适用于用灵巧、像人类一样的手进行计划。”
虽然人工智能正在推动机器人领域的变革,为机器人配备越来越强的技能和理解力,但我们还没有构建出具有生物灵巧性的任何东西。
随着人工智能硬件被缩小为更小、更节能的芯片,研究人员找到了解决计算问题的方法,像生命一样的机器人可能已经不远了。