你好,游客 登录 注册 搜索
背景:
阅读新闻

如何解读「量子计算应对大数据挑战:中国科大首次实现量子机器学习算法」?

[日期:2015-04-03] 来源:知乎  作者:知乎用户,机器学习&量子算法//好奇心是第一生产力 [字体: ]

    延伸阅读:量子计算应对大数据挑战:中国科大首次实现量子机器学习算法

    每个量子计算的大新闻都邀我,但我的主业真的是机器学习..

    简单讲一讲吧。

    1)关于这项工作本身
    简单来说就是,用光子比特(photonic qubit)作为量子比特,用透镜构成量子逻辑门,整体是一台光量子计算机。

    量子光学这套东西,潘教授已经玩得出神入化,几乎甩开其他所有学校了。

    取得的成就是用量子计算正确地运行了机器学习算法。

    但题目里【首次实现量子机器学习算法】的说法可能不太准确。

    我猜是因为没有把Dwave算作真正的量子计算机,因为Dwave只能运行量子退火算法。而潘教授研究的这种光量子计算机是通用型的“标准”量子计算机通用型量子计算机是可以运行所有量子算法的,这就是厉害的地方吧。

    这项工作的意义就是在于通用型量子计算机第一次成功的运行了量子机器学习算法。
之前大家也都知道这个方案肯定可行,但是实验难度很大。

    2)未来的障碍

    通用机这么好,为什么大家不发展通用型量子计算机呢?

    没有别的原因,就是因为太难了。

    五十年前大家觉得可控核聚变还有五十年,现在大家觉得可能还要五十年...

    通用型量子计算机不会比这难度小。

    这篇文章里的量子计算机非常初级,只能处理最简单的问题。而且可扩展性很差,按着这种搭光路的方法,可能第一台有实用价值的通用型量子计算机比埃尼阿克还要笨重。

世界上第一台电子计算机ENIAC长30.48米,宽1米,高2.4米,占地面积约170平方米,30个操作台,重达30英吨,耗电量150千瓦,造价48万美元。甚至这种思路可能没有结果。比特数一高,光路就复杂到再也无法在实验室搭出来。

    当然集成光学等学科的发展也可能让光量子计算机有所突破。一切都是未知数。

    通用型量子计算机还有其他思路,基于核磁共振、基于超导环等等。但暂时还看不出来到底哪条路是对的,所以每一路都养着一大批物理PhD在研究。光量子计算机这条路也只是诸多候选方案之一。有没有光明的未来只有不断尝试才知道。

    之前评论区里总有人问我,为什么中国不发展量子计算机?

    这里就顺便回答一下。量子计算这么重要的东西中国不可能没有发展。但有的东西不是我们想有就能有的。通用型量子计算机什么时候才能有重大突破谁也说不好。现在的每一小步可能都踏在错误的方向上,但是每一小步也都有可能变成真正的一大步。

    3)补充一些背景故事

    在我本科毕业时,都未曾听说过潘教授的组开始量子机器学习的研究。去年年底的时候,听某位USTC师姐说道,潘组已经开始研究量子机器学习。现在这个应该是初步成果了。
本科班上也有同学保研到潘教授组,没记错的话都是专业前几的。大多数本科就参与组内科研的大神。

    有这么厉害的导师,又有这么优秀的学生,还有多到让人吓一跳的经费,可以发射世界上第一颗量子卫星,现在再达成【首次实现量子机器学习算法】的成就也不让人意外了。

    量子机器学习/量子人工智能最近两年在飞速发展。

首先是,CIA,没错就是大家熟知的那个美国中央情报局,作为大股东资助的Dwave公司开发出Dwave量子计算机。

    然后,2013年,美国国家航空航天局NASA和Google联合成立了量子人工智能(Quantum AI Lab)。

    去年下半年,又发现洛克马丁,嗯,就是那个开发了F16/F117/F22的公司,与牛津大学联合建立了量子优化和机器学习研究中心。

    不要问我美帝想干什么,我真的不知道。。

    作为此领域的一员表示,欢迎各国争先恐后地为人类的未来砸钱

    再来一点题外话。

    牛津大学真心是一所有独特气质的学校。CS系竟然有一个大组叫Quantum Group。是CS系规模最大的方向之一。专门研究量子物理和计算机交叉的方向,进行各种科幻研究。。不愧是英语世界无数大学的母本。

    剑桥大学、哈佛大学是牛津一脉相承。

    东京大学也是以牛津为模板建立的亚洲第一所现代大学。

    希望牛津可以继续保持这种传承了八百年气质吧。全世界的大学都变成一个样就太无聊了。

    再补充一个背景。

    量子机器学习(Quantum Machine Learning)就是量子计算+机器学习么?

    不是的。

    量子机器学习还包括另外一部分,就是用量子力学的思想和模型来改进机器学习算法。

    【A Quantum-Theoretic Approach to Distributional Semantics

    比如说这篇很有名的NLP相关的文章。用密度矩阵表示单词在文本中的信息。词汇相似度用Trace(MN)表示,即两个密度矩阵乘积的迹来表示。为什么要用密度矩阵?因为密度矩阵包含了一个量子系统的所有信息,而我们又可以把一个文本抽象为量子系统。

    文本是这样的。

    量子模型是这样的。

    jaguar和elephant两个单词在此文本里的相似度是0.05。

    这个量子模型的最终效果也胜过现有模型。感兴趣可以自己读读看。

    这种思路对机器学习的促进是不受量子计算机发展的限制的,可以直接在电子计算机上运行。
   
    实际上,我导师也一直鼓励我多尝试这个思路。因为除了成果可以直接用,不用等不知道哪天才出现的量子计算机。

    boss第一次发这个领域的顶会是在2009年。他吐槽那个时候那群计算机出身的审稿人根本看不懂量子力学在机器学习里的意义,一篇文章改了快半年才通过。后来情况就好多,大概有3,4篇量子机器学习在ML/AI/NLP的顶会被顺利接受。

    然后最近几年,CS出身的科学家发表量子机器学习的文章也越来越多,几乎占了半壁江山的感觉。

    这大概就是现在的形势了。

    这些背景故事告诉了我们,美帝军方水很深,量子机器学习的世界还很广阔。





收藏 推荐 打印 | 录入:Cstor | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款