一起教育上市但没上岸
|
一位行业专业人士表示,实验解析存在一定的局限性(例如X-射线晶体学需要首先对蛋白质进行结晶操作,而结晶后的蛋白质结构,未必与在生物体内的实际结构一致;部分蛋白质的三维结构可能长期无法通过实验手段进行解析),同时实验误差也是需要考虑的。 实验手段的“弊端”,在 AI 时代有了更好的帮手。 马健也旗帜鲜明地表明了自己的观点:“显微镜不会被完全取代,但是可能很大一部分工作都可以用 AlphaFold 来完成,甚至用计算产生的模板去指导解析实验。” 马健说到,蛋白是个很复杂的东西,实验有非常多的限制。有些蛋白难结晶,不稳定,太小了的话又不适用于冷冻电镜。如今有了 AlphaFold 提供结构,就可以指导实验将蛋白质结构解出来。 “比如分享会上提到的 af1503 蛋白质,德国的 Max Planck Institute 获得蛋白的实验数据已有近 10 年,始终无法解析出结构,用 AlphaFold 很快就获得了结果。” 但是,低温电子显微镜仍具备一定的优势,比如在蛋白-蛋白相互作用研究上,但未来,AlphaFold 很可能也可以实现准确预测蛋白-蛋白结构预测。 许东教授也认为,机器学习的方法不会完全取代实验。 他表示,现在计算预测的准确度并不能保证每一个结构都预测的非常准,特别是在已知的结构库中完全没有相似结构的,预测的结果不是很准。 “在一些很关键的蛋白,特别是要大规模设计药物的蛋白上,我认为还是需要做实验,因为对结构预测的精度更高。” 而且,在一些特殊的实验结构解析中,传统方法仍然受用。 许东教授认为,施一公、颜宁这些生物学学者所做的一些更为细致的研究,不是仅靠蛋白结构预测就能取代,这其中包括蛋白质的功能、机理、修饰、相互作用、动力学属性等等,还是需要大量实验工作。但是很多一般的实验结构解析,确实没有必要存在了。 AlphaFold 的两个过人之处 从昨天开始,AlphaFold 已经成为圈内圈外,生物学、非生物学人士的“现象级话题”。 尽管很多人发出惊呼之声,但是,如果高度概括一下,AlphaFold 的创新之处,你会提炼出哪几个关键词? 根据目前 DeepMind 在 CASP14 会议上公布的技术方案,应该有两点。 首先,是注意力机制的引入。 注意力机制的引入,解决了如何更好地从多序列对齐(multiple sequence alignment)数据中提取特征以指导结构预测的问题。 在此之前,较为主流的方案是从多序列对齐数据中提取共进化信息,但 DeepMind 通过对比发现这种人工设计的特征提取会丢失部分关键信息,而通过引入注意力机制可以较好地解决这一问题。 同时,注意力机制也应用在了迭代更新序列-残基和残基-残基相互作用的过程中,从而以迭代的方式得到更为准确的距离预测与三维结构。 许东教授表示,注意力机制确实在蛋白结构预测方面上了一个台阶。“AlphaFold 可以把氨基酸之间的距离整合成三维结构。因为他们的算力很多,两年前他们虽然方法和别人几乎是一样的,预测的距离却准的多,在 CASP 里做得很好。” 但是,许教授认为,AlphaFold 今年真正的创新之处在于利用了注意力机制,可以把氨基酸之间的距离预测问题更为全局、整体的解决,同时对每一对距离的预测可靠性有更好的评价,从而看出什么预测距离更靠谱,让其在蛋白三维结构重建中发挥更大作用。 这么做,就真正把蛋白已知结构进行最大化的应用。 许东教授坦言,此前,自己的团队也思考过,但是那时候采用的是“土一点”的统计方法。 “AlphaFold 确实是非常大的创新,这种创新对研究其他问题也有帮助。比如,我们现在就想用类似的思想去做单细胞数据建模的一些研究。 其次,端到端学习的引入。 端到端学习的引入,使得从输入氨基酸序列到输出蛋白质三维结构的过程,可以完全在深度学习的框架内实现,从而使得优化过程可以得到更为直接的误差信号。 而之前的方法往往基于深度学习+传统结构建模工具(例如 Rosetta、I-TASSER 等)的组合,这样结构建模的误差信号不能直接用于对深度学习模型本身进行更新。 AlphaFold 的商业前景如何? 虽然,在许东教授、马健博士看来,传统实验室技术仍然具备生命力。但是有一点值得肯定,AlphaFold 的爆炸性成果,会对其他入局蛋白质结构预测的厂商产生非常大的冲击——犹如一条“鲶鱼”一样,搅动整个行业的现有技术和商业格局。 这次成果发布之后,DeepMind 联合创始人及 CEO 德米斯·哈萨比斯(Demis Hassabis)也第一时间向外界表示:“DeepMind 背后的终极愿景一直是构建通用人工智能,利用通用人工智能来极大地加速科学发现的步伐,帮助我们更好地了解周围世界。” 但值得注意的是,在 AI 领域,研究成果与商业化之间仍然存在一条鸿沟,即便是有领先算法的 DeepMind 也不例外。 去年,据外媒报道,谷歌母公司 Alphabet 旗下的人工智能子公司 DeepMind2018 年的营收几乎翻了一倍,但净亏损仍高达 5.72 亿美元。 从这项成果来看,AlphaFold 本质还是基于深度学习技术,需要算力的支持(使用了大约 128 个 TPU v3 ——大致相当于 100-200 个 GPU ),这些都是需要真金白银的支持。 但是,行业专业人士向雷锋网表示,从计算资源需求上来看,128 个 TPU v3 基本还在可接受的范围内,同时学术界和工业界后续也势必会从算法和工程实现的角度,对计算效率继续进行优化,来降低实际计算开销。
因此,尽管拥有着非常前沿的 AI 技术,如何将所耗费的成本转化为实实在在的商业收益,也是 DeepMind 需要考虑的现实问题。 (编辑:周口站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
