请选择 进入手机版 | 继续访问电脑版
专注物联网产业服务
微信二维码
威腾网服务号
游客您好
第三方账号登陆
  • 点击联系客服

    在线时间:8:00-16:00

    客服电话

    17600611919

    电子邮件

    online@weiot.net
  • 威腾网服务号

    随时掌握企业动态

  • 扫描二维码

    关注威腾小程序

量子计算
量子计算
量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。对照于传统的通用计算机,其理论模型是通用图灵机;通用的量子计算机,其理论模型是用量子力学规律重新诠释的通用图灵机。从可计算的问题来看,量子计算机只能解决传统计算机所能解决的问题,但是从计算的效率上,由于量子力学叠加性的存在,某些已知的量子算法在处理问题时速度要快于传统的通用计算机。
  • 阿里达摩院发布2020十大科技趋势!量子计算、类脑计算系统崛起
    昨日,“达摩院2020十大科技趋势”正式发布!其中,AI仍是主旋律:人工智能从感知智能向认知智能演进、计算存储一体化突破AI算力瓶颈、量子计算进入攻坚期、保护数据隐私的AI技术将加速落地…… 来源:达摩院 每年年初,阿里达摩院都会发布新一年的十大科技趋势。1月2日,达摩院发布了“2020十大科技趋势”,涵盖人工智能、量子计算、云计算、芯片半导体等多个领域。 去年,达摩院的预测包括:语音AI在特定领域有望通过图灵测试、自动驾驶则进入冷静发展期、AI专有芯片将挑战GPU绝对统治地位;数字身份有望成为第二张身份证;5G连接能力将增强至百亿级…… 现在回首,这些科技趋势正一一变为现实:AI芯片崛起、智能城市诞生、5G催生全新应用场景……科技新十年开启,AI、芯片、云计算、区块链、工业互联网、量子计算等领域,将出现多个振奋人心的颠覆性技术创新。 阿里巴巴云智能总裁、阿里巴巴达摩院院长张建锋作序 阿里巴巴云智能总裁、阿里巴巴达摩院院长张建锋在序言中回顾了2019年全球科技与产业取得的突破,包括人类首次获得黑洞图像、谷歌宣称实现量子霸权、多国迈入5G时代、阿里率先实现核心系统100%上云、Facebook推出基于区块链的虚拟加密货币Libra…… 那么站在2020年新的起点,全球科技将呈现怎样的风起云涌,又将怎样改变社会生产生活方式呢?接下来分享达摩院科学家与全球顶尖专家学者对于2020十大科技趋势的预测。 趋势一: 人工智能从感知智能向认知智能演进 【趋势概要】人工智能已经在“听、说、看”等感知智能领域已经达到或超越了人类水准,但在需要外部知识、逻辑推理或者领域迁移的认知智能领域还处于初级阶段。认知智能将从认知心理学、脑科学及人类社会历史中汲取灵感,并结合跨领域知识图谱、因果推理、持续学习等技术,建立稳定获取和表达知识的有效机制,让知识能够被机器理解和运用,实现从感知智能到认知智能的关键突破。 趋势二: 计算存储一体化突破AI算力瓶颈 【趋势概要】冯诺伊曼架构的存储和计算分离,已经不适合数据驱动的人工智能应用需求。频繁的数据搬运导致的算力瓶颈以及功耗瓶颈已经成为对更先进算法探索的限制因素。类似于脑神经结构的存内计算架构将数据存储单元和计算单元融合为一体,能显著减少数据搬运,极大提高计算并行度和能效。计算存储一体化在硬件架构方面的革新,将突破AI算力瓶颈。 趋势三: 工业互联网的超融合 【趋势概要】5G、IoT设备、云计算、边缘计算的迅速发展将推动工业互联网的超融合,实现工控系统、通信系统和信息化系统的智能化融合。制造企业将实现设备自动化、搬送自动化和排产自动化,进而实现柔性制造,同时工厂上下游制造产线能实时调整和协同。这将大幅提升工厂的生产效率及企业的盈利能力。对产值数十万亿乃至数百万亿的工业产业而言,提高5%-10%的效率,就会产生数万亿人民币的价值。 趋势四: 机器间大规模协作成为可能 【趋势概要】传统单体智能无法满足大规模智能设备的实时感知、决策。物联网协同感知技术、5G通信技术的发展将实现多个智能体之间的协同——机器彼此合作、相互竞争共同完成目标任务。多智能体协同带来的群体智能将进一步放大智能系统的价值:大规模智能交通灯调度将实现动态实时调整,仓储机器人协作完成货物分拣的高效协作,无人驾驶车可以感知全局路况,群体无人机协同将高效打通最后一公里配送。 趋势五: 模块化降低芯片设计门槛 【趋势概要】传统芯片设计模式无法高效应对快速迭代、定制化与碎片化的芯片需求。以RISC-V为代表的开放指令集及其相应的开源SoC芯片设计、高级抽象硬件描述语言和基于IP的模板化芯片设计方法,推动了芯片敏捷设计方法与开源芯片生态的快速发展。此外,基于芯粒(chiplet)的模块化设计方法用先进封装的方式将不同功能“芯片模块”封装在一起,可以跳过流片快速定制出一个符合应用需求的芯片,进一步加快了芯片的交付。 趋势六: 规模化生产级区块链应用将走入大众 【趋势概要】区块链BaaS(Blockchain as a Service)服务将进一步降低企业应用区块链技术的门槛,专为区块链设计的端、云、链各类固化核心算法的硬件芯片等也将应运而生,实现物理世界资产与链上资产的锚定,进一步拓展价值互联网的边界、实现万链互联。未来将涌现大批创新区块链应用场景以及跨行业、跨生态的多维协作,日活千万以上的规模化生产级区块链应用将会走入大众。 趋势七: 量子计算进入攻坚期 【趋势概要】2019年“量子霸权”之争让量子计算在再次成为世界科技焦点。超导量子计算芯片的成果,增强了行业对超导路线及对大规模量子计算实现步伐的乐观预期。2020年量子计算领域将会经历投入进一步增大、竞争激化、产业化加速和生态更加丰富的阶段。作为两个最关键的技术里程碑,容错量子计算和演示实用量子优势将是量子计算实用化的转折点。未来几年内,真正达到其中任何一个都将是十分艰巨的任务,量子计算将进入技术攻坚期。 趋势八: 新材料推动半导体器件革新 【趋势概要】在摩尔定律放缓以及算力和存储需求爆发的双重压力下,以硅为主体的经典晶体管很难维持半导体产业的持续发展,各大半导体厂商对于3纳米以下的芯片走向都没有明确的答案。新材料将通过全新物理机制实现全新的逻辑、存储及互联概念和器件,推动半导体产业的革新。例如,拓扑绝缘体、二维超导材料等能够实现无损耗的电子和自旋输运,可以成为全新的高性能逻辑和互联器件的基础;新型磁性材料和新型阻变材料能够带来高性能磁性存储器如SOT-MRAM和阻变存储器。 趋势九: 保护数据隐私的AI技术将加速落地 【趋势概要】数据流通所产生的合规成本越来越高。使用AI技术保护数据隐私正在成为新的技术热点,其能够在保证各方数据安全和隐私的同时,联合使用方实现特定计算,解决数据孤岛以及数据共享可信程度低的问题,实现数据的价值。 趋势十: 云成为IT技术创新的中心 【趋势概要】随着云技术的深入发展,云已经远远超过IT基础设施的范畴,渐渐演变成所有IT技术创新的中心。云已经贯穿新型芯片、新型数据库、自驱动自适应的网络、大数据、AI、物联网、区块链、量子计算整个IT技术链路,同时又衍生了无服务器计算、云原生软件架构、软硬一体化设计、智能自动化运维等全新的技术模式,云正在重新定义IT的一切。广义的云,正在源源不断地将新的IT技术变成触手可及的服务,成为整个数字经济的基础设施。 原文章作者:世界先进制造技术论坛,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 龙情韵 2020-1-10 17:10
    2744 1
  • 中外合作实现玻色取样量子计算|零点报数
    零点报数 ◆ 零点有数为您带来 #数据智能#前沿播报 ◆ 数据挖掘 国家统计局网站显示,1—11月份,全国规模以上工业企业实现利润总额56100.7亿元,同比下降2.1%,其中,汽车制造业下降13.9%。 图片来源:摄图网 数据算法 中国科学技术大学与中外合作者合作,在国际上首次实现了20光子输入60×60模式干涉线路的玻色取样量子计算,输出了复杂度相当于48个量子比特的希尔伯特态空间,其维数高达370万亿。这个工作同时在光子数、模式数、计算复杂度和态空间4个关键指标上都大幅超越之前的国际纪录,其中,态空间维数比国际同行之前的光量子计算实验高百亿倍。 图片来源:摄图网 数据应用 12月24日,全球首个2.1GHz低频3G/4G/5G多模商用站点在潍坊联通正式开通。山东联通联合爱立信公司,在现网2.1GHz LTE硬件上通过软件升级混模开通3G/4G/5G三种模式,并使用商用终端成功完成相关业务的验证。 图片来源:摄图网 数据赋能 1、活动:2020第八届中国电子商务年会,2020年1月7日,上海 2、荐书:《超级智能:路径、危险性与我们的战略》,作者:(英)尼克·波斯特洛姆 零点有数(Dataway):中国本土的大数据智能服务机构。深耕政务发展、城市发展、商业运营、终端管理、销售管理等诸多领域,积累了不同垂直行业的知识图谱。在多年的实践探索中始终秉承了数据应用的问题导向,以业务应用场景为出发点,把咨询经验模型化、模型算法化、算法软件化,构建了丰富的数据智能场景算法应用模型。并基于大数据、交互数据、物联数据、内部业务数据等多源数据融合建模,为政府和企业客户提供高效的数据智能解决方案。 如需获取更多信息,请联系零点有数社会发展研究中心: 电话:010-53896000 邮箱:zhaolei@idataway.com 原文章作者:零点有数,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 帕昆 2020-1-10 16:53
    3159 0
  • 200秒完成1万年运算?量子计算神奇之处在哪里?
    谷歌:我们用了200秒完成了超级计算机一万年的计算试验! IBM:别扯了!你测试的算法超级计算机只需要2.5天! 谷歌:……(- -!) 想必这几天我们都看到了这样的新闻,谷歌与IBM在在几年前就已经投入资金研发量子计算,但至今依然没有大的进展,量子计算为何如此难以突破,其难点又在哪里?这篇文章将简单带你探秘量子计算的神秘之处。 什么是量子计算?量子计算的原理是什么? 普通计算机的调取指令使用的是二进制ASCII码,其原始口令为二进制0和1来表达,我们所有的指令集都会换算成这两个数字进行操控,其最小单位为bit表示。指令集表示出来即为011011101001010011这种,是一种线性的信号流。 而量子比特的计算方式与传统计算机的计算方式并不相同,量子计算的存储单位为晶体管,并非超大规模集成电路,所以在单位计算上最小单位是量子比特为单位,这些单位被嵌入以芯片中用于处理信息,在芯片上的晶体管数量越多,也就表明这台量子计算机的处理能力越强。 一个量子比特可以同时表示0和1这两个数字,而两个量子比特则可以表示0、1、2、3四个数字,四个量子比特可以以此类推0、1、2……14、15这十六个数字,这个公式是按照2的N次方进行累计。所以每增加一个比特量子,量子计算机的性能就会以惊人的指数级的方式进行增长。目前已知的最大量子结构计算机是谷歌的53个超导量子比特,也就是综合计算了2的53次方的数据。 如何理解量子计算的处理速度? 这里我想暂时引用一个简单的加密数据模型,在传统的加密解密当中,存在着两种不同的加密模型,即对称密码模式与非对称密码模式,对称密码模式非常好解释,比如在第二次世界大战时使用的摩尔斯电码,再比如特定代码,只有加密者A与解密者B同时依照密码表来进行加密与解密,两个人同为加密者,也可以同为解密者。不过这种对称加密方式不适合量子计算,我们要挑战更高难度的非对称加密方式。 非对称加密方式是加密者A设定密码之后,将加密文件授权给解密者B,只有解密者B拿到加密者A的key才能顺利打开文件,而在传输过程当中,被偷窃者C捕获,偷窃者C想要打开文件包,就必须通过暴力破解的方式对密码的逐一字段进行尝试。这也是我们经常遇到的非对称密码。 试想一下,如果你在不经意间获取到了一个RAR压缩包,而这个压缩包里面有重多不可告人的秘密时。你只有两种方式能够打开压缩包,即,通过抓住加密者A进行严刑拷打,让他说出加密包key,而另一种则是通过字典的方式进行秘密的暴利破解。而这种方式也是最复杂最要命的一种方式。 传统计算机密码拥有以下几个模式,英文大写、英文小写、数字、特殊字符,而变量集在于密码的长度N。传统互联网密码的通用长度在6-12位之间,但不乏更长的密码存在。也就是说如果想要破解这个密码,就需要通过字典尝试999999的四次方,如果需要破解12位密码的话则需要999999999999的四次方,如此巨大的运算,需要进行一个一个数字填充才行,破解难度巨大,且通常需要计算机24小时不关机的状态下几天几个月几年甚至十几年才能破解出来,破解难度之大难以想象。 而量子计算的运作原理不同,它不会进行线性的密码探测,而会像一个分身法师一样,进行分裂化的破解,即一个密码区域字符有可能是0-9、A-Z、a-z以及特殊字符中的任意一个。在不观测的状态下,他们都是有可能的出现的正确密码。而开始观测之后,量子计算的运算方式会同时在极短的时间内释放0-9、A-Z、a-z在内的所有字符,并同时模拟在六位数字密码上进行同时匹配。匹配正确后,仅正确的密码会出现,试错运算会自动消失。在同一设定条件下,有且只有一组密码与之匹配。如果大家读过量子物理,了解过量子纠缠中“薛定谔的猫”理论,此解释会相对容易理解。 那么谷歌真的实现了量子霸权了吗? 其实从消息的角度,笔者觉得霸权两个字是媒体过渡炒作的产物,量子计算虽然是具有革命性且能够突破现有计算模式的,但远远还没有符合霸权这个定义。首先它应该是具有垄断性的且不可挑战的。但事实上,研发量子计算的企业可远远不止谷歌一家。 互联网科技与全球头部企业都有对于量子计算的相关研究,像空客、阿里巴巴、美国AT&T、百度、谷歌、IBM、英特尔、微软等公司都成立了量子计算研究所,而中国的神威太湖之光与天河二号想必大家也是耳熟能详的。目前全球排名第一的是美国橡树岭旗下的名为Summit超级量子计算机。性能突破200PFlops,神威太湖之光的两倍性能,也是已知地表最强的计算设备。 但恰恰出现问题的是谷歌对媒体宣称的实现量子霸权,仅为理论构思,并没有真正得到验证,文章来源于谷歌研究人员向NASA提供的学术论文当中出现的,但随后,这篇论文被删,谷歌与NASA也拒绝承认论文的真实性。所以从这里可以断定,谷歌量子霸权事件其实只是一个乌龙! 量子计算真的离我们很远吗? 量子计算主要适配于通用模型的设计,具备大型、容错和通用的三个特性,普通人很难接触到量子计算机,但我们所有人能享有量子计算带来的特定领域的研发收益。这一点金融资本比我们普通人的嗅觉更为敏感。 量子计算应用于智能医疗、金融投资,环境工程,网络安全,云计算人工智能等领域,用来为特定领域提供有效的解决方案,而各国也为此投入了巨资入局,欧盟2018年投入了10亿欧元实施“量子旗舰”计划,牛津大学投资2.5亿成立量子研究中心。荷兰1.4亿美元投资研究量子计算,日本3.6亿美元,加拿大2.1亿美元。而中国的阿里巴巴、百度、腾讯、以及国际超级计算机中心等部门与机构纷纷入局,未来的量子计算将会在未来十年呈现出一个全新的格局。 笔者坚信一点,未来量子计算不会取代超大规模集成电路模式的传统计算。而是会形成共生的形态,量子计算研究通用问题,大数据以及环境工程模型迭代问题,在垂直领域发力,而传统计算机则依然会在民用领域占据主导地位。就如同现在的手机迭代速度如此之快,依然没有替代电脑成为生产力的主要工具一样。量子技术还有很长的路要走,也许也会成为下一轮工业革命的拐点。 (7306625) 原文章作者:中关村在线,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 峰帷 2020-1-10 16:47
    3104 2
  • 量子计算能否解决云计算的“算力焦虑”?
    不久前,谷歌在英国《自然》杂志上发表了一篇文章《使用可编程超导处理器达到的量子霸权》,表示实现了“量子霸权”。 谷歌在论文中提到其开发的一款量子计算机针对一个特定问题的计算只需要200秒,而目前最强大的经典超级计算机要得到同样的计算结果,则需要一万年。 说到这里,我们有必要来解释一下什么是“量子霸权”,有好多人初看到“量子霸权”时,可能是出于对“霸权”这个词的敏感,难免心里会嘀咕,谷歌实现了量子霸权?美国又对中国乃至世界实现了霸权主义? 其实关于量子霸权,我们可以理解为量子计算机对我们现在用的经典计算压倒性优势,一般认为如果量子计算机能实现经典计算机无法达到的速度。 比如真能实现像谷歌所说的200秒对1万年这样的运算速度,我们就可以称量子计算机对经典计算机实现了霸权,简称为“量子霸权”,而不某个公司或国家实现了霸权。 虽然很快各国对谷歌的实验提出了质疑,有人说针对这个问题,说现在的超级计算机只需要2.5天,而不是1万年,不过,及时如此,200秒对2.5天依然是非常大的优势。 也有人提出虽然量子计算速度快,但是目前还只是实验室产物,虽然有着里程碑式的意义,却还没到达到霸权。至于实情如何,还需要时间来检验,我们只需静观其变。 我们先来看看目前云桌面的算力焦虑出自哪里? 现在我们正处于以物联网、云计算、大数据、AI为主导的第4次工业革命浪潮中,拿云计算、云桌面来说,很多人在使用过云桌面之后吐槽体验差,速度慢,而各厂家为了解决改善用户体验,不断往服务器中堆砌算力资源,力求解决问题,但是这些问题真的是因为算力不够造成的吗? 由于云桌面这种方式是把运算放到服务端,而客户端基本上不存储和计算,也就是服务器的运算性能会直接影响到所有终端客户端使用体验,如果服务器算力不足出现卡顿,这所有用户端都会出现卡顿,如何防止这种现象的发生呢? 拿禹龙云来说,除了在软件上会进行优化,一般会预留一部分服务器的算力,当需要高负荷运算时服务器才会启动这部分的冗余算力,正常情况下这部分的算力就处于浪费状态,但是为了让用户有更好的使用体验,必须要预留这部分,从禹龙部署这么多的云桌面项目来看,应该不存在算力焦虑的问题。 算力焦虑是不是伪命题? 对于用户来说,算力不足就体现在等待的时长上,每多等待一秒钟,就意味着多浪费一秒钟,一些软件如视频处理,3D设计等都是需要大量的计算资源。 同时国内各种软件系统千差万别,并且其中不乏一些个人开发、没有经过严格测试的小软件,一旦出现某种异常错误,消耗完CPU资源也不是不可能。 想想当年计算机处理从8086到386,486到现在的i5,i7,性能提升了多少倍,但是用户依然不满足,觉得速度依然不够快,回过头来看是不是真存在“算力焦虑”这个问题呢? 软件才是目前云桌面最需要解决的问题! 量子计算现在看来还很科幻,还只是实验室的产物,离商用还有很大的距离,虽然大家都一直认为量子计算是未来的趋势,不过这个未来还很遥远。 眼下云桌面行业所谓的体验问题不仅仅是更快的处理器就可以解决,比起硬件性能的提升,软件性能提升的迫切性似乎更大,但是短时间内还无法看到有大幅提升的可能,所以只有靠堆砌算力来弥补软件上的不足,怎样提升云桌面的用户体验是行业内所有厂家都在积极解决的问题。 原文章作者:云端世界,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 邬国 2020-1-10 16:35
    1926 0
  • 透过量子计算来看未来自动驾驶
    近日,有消息表示,Google 率先实现Quantum supremacy。毫无疑问,这会是量子计算领域里程碑式的新闻。 那么,Quantum supremacy是什么?这项技术对汽车未来发展有何帮助?我们逐一来看。 概念层面 所谓的Quantum supremacy,直译为量子霸权,一般指的是量子计算在某一个问题上,可以解决经典计算机不能解决的问题或者是比经典计算机有显著的加速(一般是指数加速)。 用人话来说便是,量子霸权有着完胜传统计算机的顶级计算能力,但是直到现在,我们的传统计算机基本上仍采用与该领域出现之初相同的硬件架构。 那为什么量子霸权却有着顶级的性能呢? 在宇宙和物质的原子和亚原子层面上,有些方面对人类来说似乎有些神秘,普通物理学很难解释。因此,我们有了一个新研究领域——量子力学。 量子力学提供的一些理论确实解释了在粒子和亚粒子水平上发生的不寻常行为。例如,当粒子之间相距较远时,它们似乎可以以某种方式相互连接,但却没有明显的理由说明为什么不同的粒子之间能够相互连接。一般来说,这被称为量子纠缠。 对于计算机,人们认为可以利用量子方法来构造比特和字节,即内存组件,并有可能极大地提高计算机的内存能力。又由于这会是一种与传统计算机不同的构造,因此被称为量子计算,单位是“qubit”(量子位,除了处于“ 0” 态或“ 1” 态外,还可处于叠加态)。 量子位有点类似于二进位制信息单位比特,只不过被加速了。因此它们本质上要更快,比传统计算机快得多。另一个与传统计算机出现早期的相似之处是,现阶段建造一台量子计算机非常昂贵、体积也比较大,还需要大量的冷却,而且它只有少量的量子位。 自动驾驶层面 扯了这么多概念的东西,我们说回汽车。 我们都知道,现阶段的自动驾驶汽车,其实并不能做到完全自动驾驶,也就是L4级以上的自动驾驶。而这项技术的瓶颈,除了对 V2X 的依赖之外, 最底层的技术其实就是对算力的要求,这一点也正是量子计算所能做到的。 自动驾驶汽车将拥有OTA技术,从云端获取机载AI系统更新,并将自动驾驶汽车收集的数据传送回去。正是在云计算中,量子计算机的超高速运转能力就凸显出来,成为协助自动驾驶汽车的有力帮手。 只不过,现在的量子计算还处于早期版本,错误率很高。如何处理和减少量子位的系统错误率(通常被称为量子噪声问题)一直是研究的焦点。总的来说,云量子计算机可以用无数种方式协助自动驾驶汽车。 例如,我们知道自动驾驶汽车上的AI系统可以根据收集的道路数据分析,不时进行更新;接下来,通过机器学习(ML)和深度学习(DL)的形式,AI系统在云计算中得到增强、在模拟道路数据上进行测试;然后当一切准备就绪时,就会将其推送给自动驾驶汽车。 ML/DL在云端的计算工作量可能非常大,对于经典计算机来说,会耗费大量的计算周期,运营成本会很高。从车辆的角度来说,这意味着机载AI系统获得更新需要时间。 如果,在云端用量子计算机参与AI增强任务的话,其巨大的速度优势或许能够生成一种经过修正的AI,进而更快地推送给整个自动驾驶车队。除此之外,在云中使用量子计算机的另一个潜力是让它进行汽车交通调度和交通管理。 再说回刚才介绍的 V2X 技术。 一旦智慧城市的概念落实之后,自动驾驶汽车将会面临巨大的数据考验,除了通过V2V(车对车)和V2I(车对基础设施)进行电子通信外,它们还可能与一个“主”交通管理系统进行交互,该系统将试图使成千上万辆汽车的流量保持平衡。 进行流量管理的计算工作量可能相当大,因此云量子计算机就能发挥其作用。量子计算机的车载AI可以在云中咨询,得到一个额外的“意见”。 当然,如果你试图单独依靠量子计算机对车辆进行远程操控,那么劝你还是打消这个念头。因为无论是让人类远程驾驶还是量子计算机进行同样的操作,只要涉及乘客的远程相关风险对自动驾驶汽车的安全来说都不是什么好事儿。 其实,在现阶段来谈量子计算,并不是一个很好的时间,因为这个领域正处于刚刚起步阶段。我们并不否认了量子计算机对于传统计算机而言所能达到的高度,但我们也没有必要过早的去对量子计算机充满想象或担忧。 原文章作者:常州市武进二手车交易市场,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 晋碧安 2020-1-10 16:19
    1507 0
  • 每个人都应该知道关于量子计算的这10件事
    我们现在讨论的任何关于量子计算的话题都有种像是开辟未来的感觉。在量子计算机出来时,我们就正处于违背逻辑的计算机技术的尖端。 今天,计算机中的晶体管已然能够缩小到一个难以想象的瓶颈境界。因此,计算机的创新者们开始在被称为量子计算的领域寻求原子和亚原子水平的可能解决方案。同时行业领导者也正在竞相开发和推出可行的量子计算机并使其商业化。 因为在理论上,量子计算机将能够提供解决当前古典计算机难以处理的问题所需的计算能力 - 缩小穿透计算机百倍、千倍、乃至万倍的计算时间。 首先我们要先知道什么是量子计算? 自从20世纪初首次研究原子以来,在量子物理学上它已经明显地违背了逻辑。 事实证明,原子并不遵循传统的物理规则。量子粒子可以及时向前或向后移动,并可以同时存在于两个地方,甚至是“传送”。量子计算机的设计便是利用这些奇怪的行为来超越目前的传统计算机。 经典传统的计算机通过1和0来处理操作指令,但量子计算机则是使用量子比特来。就像经典计算机一样,量子计算机使用1和0,但量子比特具有称为“叠加”的第三种状态,允许它们同时表示1或0。而不是按顺序输入一个或零,允许两个叠加的量子位同时表示四个场景。因此,显着减少了处理数据集所花费的时间。 我们每天都在创建大量数据。为了充分处理它们,并从中提取有用的数据,我们需要更多更强的计算能力。这就是量子计算机发展的缘由。 量子纠缠现象 每个人都应该知道关于量子计算的这10件事: 量子计算机可以解决那些你认为不可能的问题,换句话说,传统计算机需要数千年时间才 能计算完成,或者说传统计算机无法进行计算的数据,都可以通过量子计算机来完成。 拥有牢不可破的数据加密。量子计算机将改变数据安全的格局。即使最普通的量子计算机 也远非现在的传统计算机加密所能比拟的。 谷歌宣布其量子计算机的速度比实验室中的任何经典计算机快1亿倍。 每天,我们产生2.5EB的数据。这个数字相当于 500 万台笔记本电脑的内容。量子计 算机可以处理我们在大数据时代产生的数据量。 为了使量子计算机保持稳定,它们需要冷却。这就是为什么D-Wave Systems的量子计算 机内部温度为-460华氏度。 根据阿默斯特大学的Catherine McGeoch教授的说法,量子计算机比传统计算机“快几 千倍 ”。 叠加是用于描述粒子可以同时存在于多个状态的量子态的术语,它允许量子计算机同时查 看许多不同的变量。 量子计算机不会使用更多电力,而是可以将功耗降低 100到1000倍,因为量子计算机使 用量子计算器。 量子计算机非常脆弱。任何类型的振动都会影响原子并引起退相干。 有趣的是,即使我们目前已经能够建造处量子计算机,但是我们依旧不知道如何编写有用 的量子软件程序。 原文章作者:天外有只鱼,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    1458 2
  • 光毯有望提升量子计算机性能
    团簇态光毯示意图。 量子力学是自然科学中最成功的理论之一。尽管它的预测常常与直觉相悖,但迄今为止,还没有一项实验能够对量子力学理论进行充分的描述。丹麦国家研究基金会宏观量子态中心的研究人员Ulrik Lund Andersen教授等,正致力于解释和利用宏观量子效应。他说:“研究人员认为,量子力学是一种普遍适用的理论。因此,它也应该适用于我们的日常宏观世界——大规模观察量子现象是可能的。这正是我们在努力做的事情。” 在《科学》杂志发表的一篇新论文中,研究人员阐述了他们在室温条件下制造出纠缠、压缩光的方法。这一发现有望为更便宜、更强大的量子计算机奠定基础。他们的工作涉及一个众所周知的复杂量子现象:量子纠缠。量子纠缠表达了事物间的复杂关联,无法单独描述。如果两个物体形成了纠缠,不论相距多远,都必须把它们看作统一的整体。如果单独测量其中某一个物体,得到的结果在一定程度上是有相关性的,这是无法用经典自然法则描述的,只有借助量子力学原理才能进行解释。 量子纠缠不仅仅限于成对物体。为了在宏观尺度上观察量子信息,研究人员成功地组建了一个由30000个纠缠光脉冲构成的网络。这些光脉冲按时间和空间分布,并排列在一个二维晶格中。这看上去就像把无数条彩色的线织成了带图案的毯子。 研究人员制造出了具有特殊量子力学性质的压缩态光束,并用光纤组件将它们编织在一起,形成了具有二维晶格结构的纠缠量子态:团簇态。论文第一作者Mikkel Vilsbll Larsen说:“与传统团簇态不同,我们利用时间自由度获得了包含30000个光脉冲的二维纠缠晶格。实验设置非常简单。” 团簇态是构建光量子计算机的潜在资源。由于团簇态可以在室温下存在,它具有了替代超导技术的巨大潜力。此外,研究人员还可以对激光的长相干性加以利用:即使相距很远,它也能维持光波精确性。由此,光量子计算机不再需要昂贵的制冷技术。并且激光中携带信息的光量子比特比超导体中使用的超低温电子量子比特更稳定、持久。 Andersen补充说:“通过在空间和时间分布产生的团簇态,光学量子计算机的‘容量’可以很容易地扩展到数百个量子位。这将是新一代量子计算机的有力竞争者。” 科界原创 编译:雷鑫宇 审稿:西莫 责编:张梦 期刊来源:《科学》 期刊编号:0036-8075 原文链接: https://www.eurekalert.org/pub_releases/2019-10/tuod-bol101719.php 版权声明:本文由科界平台原创编译,中文内容仅供参考,一切内容以英文原版为准。转载请注明来源科技工作者之家—科界App。 原文章作者:我们一起看天下,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 允裘 2020-1-10 15:29
    3611 0
  • 再谈量子计算:中国队有何突破?基本原理是什么,又长什么样?
    唐旭 安妮 晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI 继续谈谈量子计算。 昨天,中科院召开发布会正式宣布:“世界首台超越早期经典计算机的光量子计算机在中国诞生”。 这件事当然要点赞,不过也要有正确的姿势。 几个要点 有人在激动之余,把这件事理解为“世界第一台量子计算机诞生”,这显然就不对了。也没有正确理解中科大潘建伟、陆朝阳、朱晓波和浙大王浩华等教授,经过长期攻关获得的这一成果。 中国这台量子计算机性能如何?通过公开信息可见: ■ 目前只有一个单光子的量子模拟机,并且证明了通过量子计算的并行性加速求解线性方程组的可行性。 ■ 这个科研用的模拟机,性能比人类第一台电子管计算机(1946年诞生)和第一台晶体管计算机(1954年诞生)快10-100倍。 实际上,这件事的突破之处体现在以下三个方面: 1、 高效率多光子玻色采样 在玻色采样这个问题上,量子算法有着指数级的优势。潘建伟团队制造出一台专门计算玻色采样的光量子计算机,在计算三光子、四光子、五光子玻色采样问题时,计算速度比国外同行和早期计算机要快。 相关论文: http://www.nature.com/nphoton/journal/vaop/ncurrent/full/nphoton.2017.63.html 2、超导电路中实现10比特纠缠和并行逻辑运算 就目前已经公开的情况看,是超导量子系统中最多的比特纠缠数,这在全世界也是处于领先的水平。 相关论文: https://arxiv.org/pdf/1703.10302.pdf 3、使用超导量子处理器求解线性方程组 在四个超导量子比特上,证明了通过量子计算的并行性加速求解线性方程组的可行性。 相关论文: https://arxiv.org/pdf/1703.06613.pdf 先说到这里,懂的自然懂,不懂的应该还是不懂……有专业人士给了量子位一个简单的总结:是个很棒的成果,但依旧需要冷静看待。 基本原理和现状概况 昨天不少读者在后台留言,希望解释一下量子计算机。那么,接下来量子位就强行讲讲量子计算机。 目前量子计算机有很多实现的方法,上面潘建伟团队使用的就是超导+多光子的方法。除此以外,还有半导体量子芯片和离子阱等等路径。 为了制造量子计算机,谷歌、IBM想出的办法是用超导回路,深耕半导体行业几十年的英特尔希望用传统的硅晶体管,而一家名为ionQ的公司则是使用离子。 核心原理无非一个:进入量子力学奇怪和反直觉的世界(包括叠加态以及纠缠、隧穿),加快计算速度。 与传统计算机使用0或者1的比特来存储信息不同,量子计算机使用量子比特来存储信息。量子比特存储的信息可能是0、可能是1,或者有可能既是0也是1。 量子力学认为,微观物体可以处于一种“似是而非”的状态,即一个原子可以同时处于两种状态。 1个量子比特可以存储2种状态的信息,也就是0和1;2个量子比特就可以存储4种状态的信息,3个8种,4个16种。 量子计算机的性能随着“量子比特”的增加呈指数增长,而传统计算机按“比特位”呈线性增长。总有那么一个临界点,量子计算机的性能就会超过传统计算机。 虽然量子计算机看似美好,但目前还有许多挑战,最大的问题在于这些计算机的精度相比传统计算机实在是低太多了。一些微小的扰动,都可能带来极大的破坏。 不久前,在IBM在和ionQ公司的一次量子计算机大比拼中,两家开发的计算机分别只有35%和77%的运算正确率。 这还只是5个量子比特的情况,如果是有成千上万个量子比特,那量子计算机恐怕根本不可能得到正确的结果。 而且5个量子比特的计算机现阶段远远落后于我们手中的笔记本电脑。 关于量子计算机,这里应有一个视频,头条号不便插入,可以前往量子位微信公号查看,英文好的同学可入。 长什么样?举个栗子 说一千道一万,量子计算机到底社么样?我们来举一个真实的“栗子”:D-Wave。这家加拿大公司是量子计算机界一个充满争议的明星。 D-Wave开发出了世界上第一台商用量子计算机。年初,他们推出可以处理2000量子比特的第四代产品:2000Q,售价超过1亿元人民币。 设备环境 D-Wave 2000Q系统的外壳长宽高大约是3×2×3(米),其包含的硬件包括了复杂的低温制冷系统、防护罩、I/O系统,只为了支持一个指甲盖大小的QPU。制冷系统占据了D-Wave 2000Q的大部分物理体积。 量子效应的发生条件是非常严格的。 量子处理器(QPU)需要在绝对零度(-273.15℃)附近的温度才能运行——屏蔽磁场、隔离震动和外部因素的干扰都需要绝对零度的低温环境。 还要将量子计算机放到比地球磁场弱50000倍(基本相当于没有磁场)、大气压比地球小100亿倍(基本相当于真空)的环境中,以保持量子状态的稳定。 这些都是通过闭式循环冰箱实现的,它实现了0.015K(-273.135℃)的低温环境。D-Wave的“干燥”稀释制冷机使用了液氦制冷剂。 温度由顶端的室温逐层递减,直到QPU部分接近绝对零度。(50K:-223.15℃,4K:-269.15℃,1K:-272.15℃,100mK:-273.05℃,15mK:-273.135℃,绝对零度:-273.15℃) 关于QPU D-Wave的QPU由容纳着若干铌制微型环的晶格组成,每个晶格是一个量子比特。在低于9.2K的温度下,铌会成为超导体并显露量子力学效应。 在量子态下,电流会同时向两个方向流动,这代表量子比特正处于叠加状态,即同时处于“0”和“1”两个状态。在问题解决过程的最末端,这种量子叠加态会坍缩回“0”或“1”两种状态的其中一种。 实现由单个量子比特到多个量子比特组成的QPU的进步,需要量子比特间的互连以进行信息交换。量子比特之间通过耦合器相连,后者同样是超导体环。量子比特和耦合器之间的互连,和管控磁场的控制电路共同创造了一个可编程的量子元件的集成结构。 当QPU得到问题的解决方案时,所有的量子比特会在它们的最终状态下稳定下来,而它们承载的数值将会以比特串的形式反馈给使用者。 D-Wave 2000Q系统最多能装下2048个量子比特和5600个耦合器。为了实现这个规模,其使用了128000个约瑟夫逊结,这也让D-Wave 2000Q的QPU在当时成为了有史以来最为复杂的超导集成电路。 D-Wave的系统耗能低于25千瓦,其中大部分用于制冷及操控前端服务器。水冷系统的需求和一个厨房龙头所能提供的水量相当,其所需的空调水平是同等规模系统的十分之一。 如今百万亿亿次级的超算的耗能大概等同于胡佛水坝所制造的。 退火算法 与经典的计算方法截然不同,D-Wave的量子计算机,运用量子退火算法来解决问题,即利用真实世界中量子系统的天然倾向来寻找低功耗的状态。 如果用一个高低不等的地形图来代表最优解问题,地形图上的每一个坐标代表一种可能的解决方案,而每一点的海拔代表它的功耗,那么最佳解决方案就在山谷最深处最低的那一点上。 计算过程通过将量子处理器(QPU)初始化至某一已知问题的基态,同时让系统朝着待解决问题进行退火而完成,这也让其在计算过程中能够自始至终保持低功耗的状态。(广域寻找最低点) 计算结束后,每个量子比特都以“0”或“1”的状态呈现,最终的状态就会是待解决问题的最优解或近似最优解。 也有一段视频推荐,同样是英文原声,查看方法同上~ 如何编程 D-Wave 2000Q系统提供了一个标准的网络API(基于RESTful服务),其客户端库向C/C++、Python、MATLAB语言开放。 操作接口允许用户将系统作为网络上的云资源来接入,同时用户也可以选择将其整合进自己的高性能计算环境及数据中心中。 为了对系统进行编程,用户得把要解决的问题,映射成在“广域寻找最低点”的模型。用户可以以多种不同的方式向系统提交问题。最终,问题将表现为一组数值,这组数值将与量子比特的权重和耦合器的强度相当。 系统会将这些数值和其他用户指定的参数囊括在内,并向QPU发送一道QMI指令。问题的解决方案将会是量子比特所找到的最优配置,即“功耗地形图”上的最低点。这些数值将被返回给网络上的用户程序。 量子计算机是概率性的而非确定性的,因此返回给用户的可能是多组数值,它不仅能提供系统寻找到的最佳解决方案,同时也提供其他可供选择的优秀替代方案。用户可以指定系统向自己发送解决方案的数量。 D-Wave系统旨在用于对古典计算机进行补充。有很多量子计算机可以协助高性能计算系统(HPC)的例子。另外,量子计算机非常合适离散优化,而HPC在大规模数值模拟中表现更好。 能力及应用 D-Wave的旗舰产品,是有2000量子比特的D-Wave 2000Q量子计算机,这是世界上最先进的量子计算机之一。这台计算机基于一个新型超导处理器,使用量子力学来大规模加速计算。 D-Wave 2000Q最适合解决许多领域中的复杂问题,例如: · 优化 · 机器学习 · 抽样/蒙特卡洛 · 模式识别和异常检测 · 网络安全 · 图像分析 · 财务分析 · 软件/硬件检验和确认 · 生物信息学/癌症研究 D-Wave的首名客户是国防工业承包商洛克希德马丁。这是一家美国航空航天制造厂商,并以开发、制造军用飞机闻名。Lockheed Martin购入了D-Wave的量子运算系统。 2013年,谷歌、NASA(美国航空航天局)和USRA(高校空间研究协会)共同创建了量子人工智能实验室,并在NASA的Ames研究中心安装了D-Wave的量子计算机。科学家正在试图探索量子计算的潜力以及在复杂问题处理上的适用范围,如网页搜索、语音识别、规划和调度、空中交通管制、对其他行星的机器人任务的支持和控制。 2015年,谷歌通过对硬件优化的基础测试得到了结果。在D-Wave系统上运行任务显示,“对于涉及近1000个二进制变量的计算中,可以看出量子计算机的性能完全优于传统计算机。比传统的单核模拟计算机快了108倍”。 2016年,洛斯阿拉莫斯国家实验室(Los Alamos National Laboratory)申请到了用D-Wave系统研究量子退火技术的应用能力。目前科学家在不同的程序集上已经取得了进展。 好啦,量子计算依旧是一个非常前沿的领域,还没有真正实现通用量子计算的程度。所谓的量子霸权,只不过是希望量子计算机有朝一日,能够从性能上超过传统的经典计算机。 一切都在快速发展,今天量子位就强行解释到这。 ==== 分隔线 ==== 招聘 量子位正在招募编辑记者、运营、产品等岗位,工作地点在北京中关村。相关细节,请在公众号对话界面,回复:“招聘”。 One More Thing… 今天AI界还有哪些事值得关注?在量子位(QbitAI)公众号会话界面回复“今天”,看我们全网搜罗的AI行业和研究动态。笔芯~ 原文章作者:量子位,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 郏善芳 2020-1-10 15:01
    3348 0
  • 量子计算机又一突破!IBM宣布实现32量子体积,连续三年性能翻倍
    量子计算机技术又有重大进步,IBM宣布其量子计算机的性能指标又增加了一倍。在1月9日的CES 国际消费电子产品2020展会上,该公司称他们已经成功地运行28量子比特量子计算机Raleh,获得了32量子体积,而去年的量子体积是16。 量子体积是IBM最早提出用于衡量量子计算机强大程度的专用指标。简而言之,量子体积是用来描述量子计算机可以解决的问题复杂性的度量,量子体积可以用来比较不同量子计算机的性能。 Raleigh利用了在IBM的53量子位量子计算机中开发的改进的六边形晶格连接结构,在相干性方面进行了改进。根据IBM的研究,晶格的连通性对降低栅极误差和串扰有影响。 2017年,IBM首次通过5量子位计算机Tenerite展示了4量子体积,之后的每一年都成功使量子计算机系统的量子体积翻倍。2018年,20量子位的计算机”东京“获得了8量子体积,去年20量子比特的IBM Q1系统,也叫约翰内斯堡,获得了16量子体积。 无论是对IBM还是对整个量子计算行业来说,每年提高量子体积都是一个重要的目标。量子体积越高,解决现实世界中复杂问题的能力就越强。 长期以来,量子计算机被誉为二十一世纪最重要的创新之一,它在医疗保健、人工智能、金融建模等各个行业都有潜在的应用前景。 第一台真正的量子计算机由乔纳森·霍姆在2009年推出,然而量子计算机直到最近才进入可以考虑实用的发展阶段。目前量子计算机的发展有了长足的进步,该行业由包括谷歌和IBM在内的少数科技巨头所统领。 虽然IBM的最新进展是重大的进步,但量子计算机目前还是只能用于非常特定的任务,它们与我们习惯使用的通用经典计算机相去甚远。因此有关它们可能被用来破解用于保护比特币等加密货币的加密技术的担忧,目前看来仍是没有根据的,至少目前是这样。 作为一个完全围绕加密安全交易建立的网络,一个足够强大的量子计算机最终可能破解用于生成比特币私钥的加密,这听起来很有道理。然而根据马丁·罗特勒和几位合著者在2017年6月发表的研究,一台量子计算机需要大约2500量子比特的处理能力才能破解比特币使用的256位加密。 由于目前最强大的量子计算机只有72量子位处理器,量子计算机要达到威胁到加密的水平依旧需要几年时间。但随着IBM的计算能力每年翻一番以及谷歌宣称已经达到了量子霸权,量子技术依旧对于加密货币构成了威胁。如何确保比特币能够抵御潜在的量子计算攻击,也是绝对不容忽视的问题。 量子优势是指量子计算机在速度和计算空间上比传统计算机有显著优势。换句话说,量子优势只有当量子计算机真正具备快速解决实质性复杂性的相关问题时才能显现出来,而这种问题通常经典计算机会花相当长时间去解决。 谷歌的量子霸权是一个重要的量子计算事件。然而这是一家公司取得的非凡成就,没有对行业应用或社会产生直接影响。从另一方面来说,量子优势甚至比量子霸权更重要。在量子优势显现到来之前,还有几个技术障碍等待科技巨头克服解决。正如IBM的稳步发展所证明的那样,量子体积将帮助我们实现这一目标。 原文章作者:一点资讯,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 牝筒 2020-1-10 14:57
    5271 0
  • 量子计算新进展:中国学者实现20个超导量子比特纠缠
    新华社杭州8月9日电(记者 朱涵)由浙江大学、中科院物理所、中科院自动化所、北京计算科学研究中心等机构组成的联合团队开发出一款具有20个超导量子比特的量子芯片,并成功实现全局纠缠,刷新了固态量子器件中生成纠缠态的量子比特数目的世界纪录。这一量子计算新进展于8月9日发表于《科学》杂志。 记者在浙江大学借助显微镜看见,超导量子比特芯片的大小约为1平方厘米,20个量子比特均匀分布于中心谐振腔的周边,犹如由中心枢纽贯通的各个支路。 据了解,这是浙江大学超导量子计算和量子模拟团队的实验室迭代的第四代电路设计方案,目标是让任意两个量子比特之间都能进行直接“沟通”,实现全局纠缠。全局纠缠,是让所有量子比特协同起来参与工作,量子操纵是量子计算的技术制高点,而实现全局纠缠是检验操纵是否成功的标志。 研究人员表示,计算机使用“0”和“1”进行信息存储与处理。在经典计算机里,一个比特就如一个普通开关,或0或1。量子计算机由于量子纠缠与叠加特性,一个量子比特可以同时代表0和1。“想象一枚摆在桌上静止的硬币,你只能看到它的正面或背面;当你把它快速旋转起来,你看到的既是正面,又是背面。于是,一台量子计算机就像许多硬币同时翩翩起舞。”研究人员说。 在实验室控制条件下,研究人员在短短187纳秒内(人眨一下眼所需时间的百万分之一),捕捉到了20个人造原子从“起跑”时的相干态,历经多次变身,最终形成同时存在两种相反状态的纠缠态。操控这些量子比特生成全局纠缠态,标志着团队能够真正调动起这些量子比特。 量子比特数是衡量量子计算机性能的重要指标之一。有研究认为,一旦量子比特数达到50以上,就能在处理某些特定问题时展现超越超级计算机的运算能力。“我们的芯片拥有一个显著特点,那就是所有比特之间都能够进行相互连接,这能够提升量子芯片的运行效率,也是我们能够率先实现20比特纠缠的重要原因之一。” 研究人员介绍道。 原文章作者:新华网客户端,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 牝摧罔 2020-1-10 14:41
    1928 3
  • 北京量子院明年攻坚量子计算与通信等4个研究方向
    新京报快讯(记者 张璐)记者今天获悉,北京量子信息科学研究院(简称北京量子院)今年将完成整体研究方向布局,明年将重点在量子物态科学、量子计算与通信、量子材料与器件、量子精密测量4个方面进行攻坚。 今天,“2019年量子物理与量子信息科学前沿论坛”在北京量子院开幕。来自国内外知名大学和研究机构的23位顶尖科学家和知名专家学者做特邀学术报告,讨论量子物理与量子信息科学的前沿问题。 清华大学副校长、北京量子院院长薛其坤接受记者采访时表示,今年的量子院可以用“快速发展”来描述,在北京市政府的支持下,有了自己的办公和科研场所,一大批世界上最优秀的科学家纷纷加入,已经形成了量子物态科学、量子计算与通信、量子材料与器件、量子精密测量这4个主要研究方向的雏形。“量子院虽然在规模上还需要进一步发展,但整个布局的几个研究方向将基本完成建设。” 针对明年的工作计划,薛其坤表示,2020年量子院重点对量子计算和通信等方向进行攻坚,量子精密探测等也在布局。 在营造科研环境方面,薛其坤透露,量子院整体仪器设备仍在采购中,第一批最关键的量子器件和一些微加工设备都已经到位。量子院已建设1500平方米的5个洁净实验室,购置总金额达2.34亿元的首批高端科研设备52台套,包括稀释制冷机、电子束曝光机、反应离子刻蚀机等。 探访:量子芯片在零下273.14℃“极低温”下工作 记者来到其中一个实验室“超导量子计算实验室”进行探访。在这里,一台稀释制冷机正在不分昼夜地运行。“制冷机里面是北京量子院自主研发的20比特量子芯片,比特数越高,计算能力越强。采用超导宏观量子效应的量子比特必须在特别低的温度下才具有量子特性,因此里面的环境温度最低是零下273.14℃,比宇宙的温度下限(绝对零度),仅仅高了0.01℃。”实验团队的相关研究人员说,伸进制冷机的各种线缆连接着电子学仪器仪表,用于操控或者读取量子芯片。 http://5b0988e595225.cdn.sohucs.com/images/20191125/fc7ad105716049a891e1c56147797a4c.jpeg 在超导量子计算实验室,内置量子芯片的稀释制冷机正在运行。量子院供图 此前,谷歌称成功演示“量子霸权”,证明了“量子优越性”,在特定任务上,量子计算机具备超越经典计算机的计算能力。这也让“量子计算”走入大众视野。 经典计算和量子计算有何区别?据介绍,计算机计算包括经典计算和量子计算,经典计算比特只能处于0和1两个状态,但量子比特可以实现叠加、纠缠,带来了超强的并行计算能力。打个粗浅的比方,如果在一本厚厚的字典里找一个字,传统的经典计算是一次翻一本字典。而量子计算,则可以在多本字典中同时翻阅查找。 我国的神威·太湖之光超级计算机曾经是世界上最快的超级计算机,每秒钟峰值运算12.5亿亿次每秒。然而,这样的运算速度,面对50个量子比特的纠缠态处理可能就已经束手无策了。 “量子计算”会有哪些应用场景?该研究员称,目前量子化学是热门的研究方面之一,比如要对大分子动力学进行模拟,现在传统计算机无法实现,“算不动”,靠量子计算可以起到加速作用。因此,量子化学在新材料探索、制药等领域将发挥作用。 不过,该研究员也表示,目前量子比特存在一些错误,保真度尚不高,不能保证每一次操作一定是准的,因此对错误率要求很严的算法不适用。“目前仍处于有一定噪声的中等规模的量子计算阶段。我们要针对这样的阶段开发对应的算法,比如对噪声不敏感的算法。” 据悉,量子计算有不同的技术路线,如拓扑量子计算、超导量子计算、量子点量子计算、离子阱量子计算、冷原子量子计算等等。该研究员说,几种技术线路各有优缺点,目前,超导和离子阱两种量子计算发展步伐较快,已经有商业公司在参与。 新京报记者 张璐 编辑 李国君 校对 陈荻雁 原文章作者:新京报,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 兑笞 2020-1-10 14:29
    3222 0
  • 量子计算机能让“时间倒流”?
    网上有文章称,科学家使用量子计算机逆转了“时间之箭”,可以让时间倒流。真是这样吗? 这只是为了吸引大众眼球进行的标题处理。来自莫斯科物理与技术研究所、美国阿贡实验室和苏黎世联邦理工学院的研究人员在《科学报告》上发表了题为《时间之箭及其在IBM量子计算机上的逆转》的论文。他们在论文中称“用量子计算机逆转了‘时刻之箭’的方向”。 时间之箭是指时间的单一方向,这个概念最早是英国天体物理学家爱丁顿在1927年提出的。人们会觉得时间流逝是最为平常的事,而物理学定律往往是关于时间对称的,也就是说把时间换一个方向,物理学定律同样适用。 在研究时间之箭的源头时,物理学家把热力学第二定律和时间联系了起来。热力学第二定律也叫熵增定律,指在封闭的热力学系统中的熵总是增加的,意味着系统向着混乱而非有序的方向发展。这条经验定律很容易帮助理解时间之箭,如果比作台球开球,一个球去撞击一堆球,球会四散开来变得更加混乱。如果没有热力学第二定律,其他的物理定律还是可以让这些球回归原位,可这恰恰违反了热力学第二定律。 研究团队设计了一个“四步走”的实验让时间“逆转”。他们使用IBM量子计算机中的超导量子比特,并开发了一种算法让量子计算机模拟两能级之间的电子散射——电子从局域的或“可见的”状态,变成散射的状态,就像把摆好的台球撞散开。然后,算法把这个过程反过来,粒子返回到它的初始状态。他们认为,在几分之一秒内,粒子向时间之箭的反方向演化了。 研究团队计算出了一个电子变“模糊”后自发地回到原来位置的概率。结果表明,在整个宇宙的生命周期137亿年里,每秒钟观察100亿个电子,电子的反向演化只会出现一次,并且倒回去的时间也不足百亿分之一秒。这样的概率也解释了为什么在宏观上不会出现“逆向”操作。 实际上,这一研究跟时间旅行或者时间逆转没有任何关系。然而当“标题党”的新闻出现后,有人把矛头还是对准了与科学与公众的关系。一位不愿透露姓名的量子科学家表示,“我不知道这有何用处,这种炒作只会坏了量子计算的名声。” 《麻省理工科技评论》发表评论认为,这类“标题党”新闻的出现不仅仅给量子计算招来恶评,还会伤害科学本身。公众很容易被超出他们理解范围内的东西迷惑。为了解释难以理解的量子力学而配上哗众取宠的标题,只会让科学离公众越来越远。 原文章作者:科技生活热点,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 臂欲讶 2020-1-10 14:27
    2249 0
  • 亚马逊跟进量子计算,云计算是它成功的关键?
    不知道大家对于量子计算是否有了解?并不是前段时间频上热搜的量子力学快速读书法,那个堪称是当代迷惑行为大赏第一名。量子计算是正儿八经的科学,目前谷歌、微软、IBM等公司都在积极向外界发布量子计算进展,亚马逊作为全球科技巨头之一也不甘落后。本周二,亚马逊云宣布将会推出自家的量子计算服务Braket预览版,并会成立AWS量子计算中心和亚马逊量子解决方案实验室,正式开始在量子计算领域谋划布局。 在传统的计算中,信息是以比特(bit)形式存储,每个比特在特定时刻只有0或1一个状态。而在量子计算中,信息则是以量子比特(qubit)形式存储,量子比特是0和1的叠加态,既可以是0,也可以是1,这样一个量子比特就可以完成两个比特才能完成的并行运算。而当系统中有N个量子比特时,其所能包含的信息将会呈指数级增长。因此,借助量子力学,量子计算机在未来是可能变成现实的。依托于该项技术,在加密技术、基因工程和通信行业都将会有更大的应用空间。 其中,量子计算服务Amazon Braket备受关注。在实际的应用中,亚马逊将会与量子计算硬件公司合作,通过亚马逊的云端平台来与这些量子计算公司进行连接,从而获取他们的数据来完成进一步的运算。 AWS技术副总裁Bill Vass表示,客户应该为量子时代做准备,并表示该项目花费不菲,但并未向外界透露具体的数额。虽然现在量子计算技术还并不成熟,但是作为一项正在发展的技术,亚马逊可以为该项技术的发展提供基础设施和资源,让科学家和开发人员有机会去尝试量子计算机各方面的开发工作,比如说电路开发,仿真模拟等,以积累在量子计算机方面的知识和能力。 AWS称,将提供大量预安装的开发工具、范例算法和实作教学,以协助新使用者开始使用混合和经典量子算法。有媒体分析,对AWS而言,Amazon Braket的模式可降低风险,因为不会让自身负担建造量子计算机的成本。对于合作伙伴来说,AWS为他们提供了其他渠道难以达到的影响力。另一方面,开发人员和研究人员可以经由单一接口存取这些工具,进而更容易地找出最适合他们的方法。 通过设立量子计算研究中心,亚马逊也开始投入一些长期性的研究。量子计算机成功吸引了各大科技企业的目光,包括微软、英特尔、IBM、谷歌等。尽管目前已经有量子计算机落地,但是距离成熟商用还有很长一段路要走。 在提供量子计算算力服务方面,和AWS类似,微软和IBM也允许用户在各自的云服务上测试量子计算硬件。微软在11月发布了基于云计算的量子计算工具,公司级用户可以使用这些工具来加速传统计算机上的计算。当前,AWS和微软在云计算领域占据主导地位。2018年,两家公司共同占据了全球60%的云计算市场。云服务在未来可能会成为科技巨头发展自己的重要阵地。 原文章作者:科技零接触,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 值蓊 2020-1-10 14:17
    3149 0
  • 从量子计算到区块链:前沿、趋势和挑战
    量子计算与区块链广州论坛纪实会议简介 2019年11月30日,“量子信息与区块链技术”广州论坛在华南理工大学成功召开。本次论坛由数字资产研究院学术与技术委员会主任朱嘉明教授发起,数字资产研究院与华南理工大学自动化科学与工程学院联合主办,华南理工大学教授崔巍担任会议召集人。 本次论坛邀请了量子信息诸多领域的科学家、区块链技术专家和产业界代表与会发言,包括: 清华大学龙桂鲁教授、台湾大学张庆瑞教授、清华大学刘玉玺教授、中山大学李绿周教授、华为高级研究员邬兴尧博士、中山大学项泽亮教授、北京邮电大学高飞教授、安比实验室郭宇教授、重庆邮电大学曹岭教授、山东大学万志国教授、运通链达金服科技有限公司邹均博士、量子猫科学馆李志峰博士、广州致链科技有限公司首席科学家余向阳教授等。数字资产研究院学术与技术委员会主任朱嘉明、华南理工大学自动化科学与工程学院院长李远清和鸿海集团董事长刘扬伟发表了开幕致辞。数十位来自全国各地的高等院校、科研院所和企事业单位的代表参会。 本次论坛在众多量子科学研究领域进行了专题研讨,包括: 量子安全直接通信与算法、量子霸权的现状、超导量子计算研究基础及其前沿、量子生成对抗网络、量子化学模拟及量子计算云平台、混合量子计算和量子信息网络前沿、实用量子保密查询协议研究、量子思维与区块链思维的碰撞、量子计算与区块链技术、区块链技术及应用实践、量子计算阴影下的区块链、基于零知识证明的原子交换研究、区块链隐私保护等。 本次论坛正式发起筹建“量子信息与区块链技术智库中心”。发起单位包括:数字资产研究院、鸿海科技集团、清华大学物理系、华南理工大学自动化科学与工程学院、台湾中原大学量子计算中心和运通链达金服科技有限公司,崔巍教授担任该中心筹备组主任。 发言纪实 《量子计算与区块链》 朱嘉明 数字资产研究院院长 朱嘉明发表了题为《量子计算与区块链》的开幕致辞。他指出,我们正身处在科技主导经济发展和社会转型的时代。科学集群和技术混合的不断长大造成了“技术奇点”的逼近,其背后动力很可能来源于“量子计算”。特别是,2019年Google宣布的“量子霸权”,将会对2020年代产生不可低估的影响。他指出,这一切的源头,可以追溯到20世纪的三场会议,即1900年在巴黎举办的第二届国际数学家大会、1927年在布鲁塞尔举办的第五届索尔维会议和1947年在纽约举办的梅西会议。他还指出,“ 20世纪真正对人类历史具有持续和深刻影响的是形成了复杂和系统的科学体系。过去一百余年工业化的扩张和发展,为科学技术的应用和创新提供前所未有的巨大场景。如今,科学技术本身正在变成场景。所有的传统产业,包括我们人类自身,都纳入其中。如果说,自13-16世纪的文艺复兴时代是人文艺术带动现代自然科学的诞生,进而触发由工业家、企业家、银行家主导的工业革命时代;那么,自20世纪开始,则是科学技术革命引领改变、引领人文精神和观念,是数学家、物理学家和生物学家群体创造信息和数字经济的时代。我们正处于这样两个时代的交汇点。”最后,他以三个科学家的三句话作为总结:“我们必须知道,我们必将知道(希尔伯特);如果谁不曾对量子论感到震惊,他就根本没有理解(玻尔);科学并非难事(冯诺伊曼)” 《量子安全直接通信与算法》 龙桂鲁 教授 清华大学,国家杰青 龙桂鲁发表了题为《量子安全直接通信与算法》的主题发言。19年前的今天,龙桂鲁提出了量子直接通信理论,是国际上三种最主要的量子保密通信理论之一。传统保密通信框图分为密钥分发通道和密文通信通道,量子安全直接通信则无需秘钥,改变了保密通信的框图。龙桂鲁对该理论进行详细的解读,并介绍了其团队研制的国际上第一台有使用价值的样机,证明量子直接通信能提高量子通信整体的安全和价值。同时, 龙桂鲁介绍了基于个人研究成果的量子精确搜索算法和对偶量子计算方法,包括如何基于相位匹配完成精确的量子搜索,龙算法如何实现将量子算法中两个最重要算法之一的Grover算法做到最好,对偶量子计算形式如何应用于制备可编程量子芯片,以及国际上构造量子算法的五种重要方法之一的酉算子线性组合方法等。最后,龙桂鲁介绍了核磁共振量子计算实验。 《二次量子科技革命——量子霸权已经降临?》 张庆瑞 教授 台湾大学特聘教授,IEEE Fellow, 俄罗斯工程院院士 张庆瑞发表了题为《二次量子科技革命——量子霸权已经降临?》的主题演讲。他指出, 19世纪末,人们观察到量子世界,提出量子力学理论,颠覆了古典物理世界。第一次量子革命造成电子学与经典电脑盛行到现在。虽然超级电脑越来越快,但仍有瓶颈。遵守摩尔定律的电晶体尺寸,已经快到极限;平行化计算也快达饱和;最重要的是,超级电脑越来越耗能、成本越来越高。第二次量子革命也因而展开序幕而量子电脑将是目前瓶颈的解药。量子电脑的单位是量子位元,主要应用了两个特性:叠加态和纠缠态。根据这两个特性,一个古典位元的0和1只能描述布洛赫球面(Bloch ball)的北极和南极,但是量子位元不只描述两个点,而是一次就描述布洛赫球面上所有点。四个量子位元,不是指四个布洛赫球,而是四个布洛赫球共同提供的2^4的平行空间,一次就表达了2的四次方所有的可能性。所以量子电脑可以同时做2^4个平行处理。不过量子演算法必须在量子电脑这个黑盒子里进行,中间过程要让它自动发展,不能偷看,一旦偷看(在量子世界中称为量测),就会回到古典世界。这个黑盒子内的量子过程称为神谕(Oracle)。最后,他再次强调,未来属于量子,而且不只是电脑,感应器、通讯器等都将量子化。 《超导量子计算研究基础及前沿》 刘玉玺 教授 清华大学,国家杰青 刘玉玺发表了题为《超导量子计算研究基础及前沿》的演讲。他系统介绍了为什么要做量子计算,什么是量子计算,以及超导量子计算主要的组件。刘玉玺结合超导量子计算的发展史,介绍了自己的主要工作,以及现阶段的主要进展。最后,刘玉玺对量子计算未来需要解决的关键问题和发展提出了一些看法。 《量子生成对抗网络》 李绿周 教授 中山大学 李绿周发表了题为《量子生成对抗网络》的演讲。他指出,探寻量子优势是量子计算研究的核心问题之一。量子计算机相对于经典计算机在哪些方面有优势?有多大程度的优势?这些问题都需要深入研究。量子计算的优势可以从时间复杂度、查询复杂度、通信复杂度、电路深度复杂度等侧面进行定性和定量的研究,而这些研究都离不开量子算法设计。在某种意义上可以说,量子算法是量子计算的灵魂。只有当物理实现研究和包括量子算法在内的软件研究得到并行发展的时候,量子计算才能成为一个有血有肉的整体。接着,他介绍了量子算法简明进程,指出当前已经进入到了面向大数据环境的量子算法。进而,他讲解了近年来量子计算与机器学习的交叉研究,以及量子机器学习如何体现量子优势。最后,他介绍了基于变分量子电路提出量子生产对抗网络模型的个人工作。 《量子化学模拟及华为量子计算云平台 HiQ 介绍》 邬兴尧 博士 华为高级研究员 邬兴尧在会上作了题为《量子化学模拟及华为量子计算云平台 HiQ 介绍》的主题演讲。 他指出含噪声的中等规模的量子设备(NISQ)是近期研究的热点,主要考虑的是50-100个物理量子比特的量子设备。其中,如何利用NISQ设备实现量子优势是该领域的一大焦点。NISQ设备的应用包含随机采样、组合优化、量子模拟等多种问题。在演讲中,他主要介绍了NISQ设备在量子化学模拟中的应用,和通过量子经典混合算法(Variational Quantum Eigensolver),优化得到分子的基态能量,并展示了华为HiQ量子云平台上对于业界最大规模分子的模拟(14个分子空间轨道)。在演讲后半部分,还介绍了华为HiQ 2.0的升级特性,包含支持量子化学模拟的HiQ Fermion模块,支持在线量子调控设计的HiQ Pulse模块,以及对于HiQ模拟器和编程框架的升级。 《混合量子计算和量子信息网络前沿》 项泽亮 教授 中山大学,青年千人 项泽亮发表了题为《混合量子计算和量子信息网络前沿》的主题演讲。他介绍了在量子计算还未完全成熟、通用量子计算机还未有突破性进展的当前阶段,和混合系统相关的且具有广泛研究和应用前景的若干研究方向。 他首先介绍了将初步的专用量子计算机和经典计算机进行结合的混合量子计算,指出其在现阶段具有较强的可行性和很好的应用价值。同理,量子计算的后备物理系统有很多,但各有优缺点。因此集各所长,构建新型混合量子系统,衍生新的量子技术也成为了量子计算接下来需要发展的方向。再者,基于混合系统将量子计算节点进行有效连接进而构建量子信息网络,也是未来进行大规模量子信息传递及协同计算的必备基础。 《实用量子保密查询协议研究进展》 高飞 教授 北京邮电大学,教育部青年长江学者 高飞发表了题为《实用量子保密查询协议研究进展》的主题演讲。他指出, 人们已经提出了多种量子密码协议,但受当前量子调控技术所限,真正实用的协议还很匮乏。量子保密查询可以看作是适当放宽了安全性需求的N传1不经意传输。该类协议只要使用与量子密钥分配类似的技术即可实现,具有很强的实用潜力,一经提出就引起了广泛关注。最后,高飞简单介绍了量子密码的研究背景和发展现状,量子保密查询协议在走向实用过程中所面临的若干理论问题,和相应的研究进展。 《猫与妖之对话——量子思维与区块链思维的碰撞》 邹均 博士 运通链达金服科技有限公司CEO 邹均发表了题为《猫与妖之对话——量子思维与区块链思维的碰撞》的主题演讲。他从哲学层面剖析了量子计算和区块链的特点,把量子计算比作“薛定谔的猫”,把区块链比作“麦克斯韦妖”。之后,详细解释了量子qubit的定义,量子门实现及仿真和在IBM量子云上的实测结果。他还从理论到实践层面介绍了量子计算的原理,以及Shor和Grover两种常用的量子计算算法及其特性。最后, 他对抗量子加密算法进行了探讨,提出量子计算为区块链带来的四类可能的改进:量子随机性使区块链告别伪随机数,量子纠缠帮助密钥分发,未知量子态不可克隆性,量子隐形传态。 《量子计算与区块链》 李志锋 博士 量子猫科学馆负责人 李志峰发表了题为《量子计算与区块链》的演讲。他介绍了量子计算的基础知识,量子计算机的威力,量子计算机的技术方向和最新进展。并对各国就量子技术发布的相关政策,世界范围内各高校的研究情况进行了普查性质的报告。此外, 他基于区块链的技术特性、密码安全和信息安全,分析了量子计算对传统加密算法带来的威胁,提出区块链在量子计算时代的加密保护措施。最后,他介绍了量子区块链的研究进展,以及如何最终实现在量子计算环境下安全的区块链。 《区块链技术及应用实践》 余向阳 教授 中山大学,广州致链科技有限公司首席科学家 余向阳发表了题为《区块链技术及应用实践》的主题演讲。他提出,当前的数据特性,正在实现多维采集、不断融合的特点,需要利用区块链特性,建立智能互证数据处理系统,从而完成区块链思维模式下的数据逻辑。之后,他介绍了区块链当前的技术基础、技术特性和应用模式,以及区块链技术解决方案的案例,包括区块链浏览器、可信智能物联平台、数据篡改监控平台、Baas平台架构和实现等。最后, 余向阳仔细讲解了区块链与物联网融合的模式和技术创新,特别是如何在无须改变现有IoT架构和特征的前提下,实现与区块链技术融合。他以区块链微型智能光谱仪作为案例做了具体的分析和讲解。 《量子计算阴影下的区块链》 郭宇 博士 安比实验室创始人 郭宇发表了题为《量子计算阴影下的区块链》的主题演讲, 核心分析了在量子霸权的逐渐实现情况下,区块链技术是否还能够保障安全的问题。他提出并讨论了若干种针对区块链安全问题的量子攻击设想、模式和可行性计算。首先,是针对“ POW 挖矿”的量子攻击模式。他在设定实际条件的情况下,对比了结合Grover 算法的量子计算SHA256的速度和经典ASIC矿机计算SHA256的速度,同时分别讨论了分叉长程攻击、伪造区块攻击、生日算法攻击三种攻击手段下,量子计算对“ POW 挖矿”的影响。结论是, 比特币的 PoW 共识受量子计算影响有限 。其次,是针对“数字签名的量子攻击安全假设:椭圆曲线离散对数问题(ECDLP)”。他提出,结合shor算法的量子计算,可以较为容易的从公钥破解私钥,这是经典计算难以做到的。结合生日攻击的量子计算,不那么容易从地址破解公钥,但对于经典计算而言,更为困难。可以说,中本聪采用比特币地址的设计,具有抵抗量子计算的先见之明。但是,比特币的支付模式中,早期的公钥是暴露在区块链上的,大约有 1/3 的比特币,公钥已暴露,包括中本聪遗产。接着,他分析了量子计算机可以发起比特币致命攻击的时间问题。最乐观的预测下,到2027年,量子攻击时间将缩短到30分钟。除了比特币,以太坊和Libra都处于量子攻击的高度危险的状态。最后,他展望了后量子时代的区块链技术的发展,包括内存复杂 PoW 算法、类 BFT 共识协议 + 格密码学等。 《基于零知识证明的原子交换研究》 曹岭 副教授 重庆邮电大学 曹岭发表了题为《基于零知识证明的原子交换研究》的主题演讲。他从研究背景与意义、研究现状和研究内容三个方面为与会者阐述了当前此方面研究的情况。他指出,基于比特币的基础加密原理电子现金尝试在比特币出现之前已经出现。比特币的本质是信任制造机,其内涵包括共享账本、智能合约、隐私保护和共识机制。最后, 他重点介绍了四种区块链跨链技术之一的原子交换,以及如何将零知识证明运用在原子交换的过程中,并实现匿名交易,以保护交易双方的隐私安全。 《区块链隐私保护》 万志国 教授 山东大学 万志国发表了题为《区块链隐私保护》的主题演讲。他首先解释了何为隐私和隐私权,以及隐私保护所面临的现实困境。之后,将基于区块链的隐私保护做出分类,分为小隐、中隐和大隐。他指出,零知识证明是真正的大隐的区块链隐私保护技术,其应用实例从账户模型到门限、车联网、数据分享和供应链金融都有发展。最后,他重点介绍了零知识证明,分析了零知识证明的功能、可验证计算、效率等。并且, 他详细介绍了Zk-SNARK的范例,以及零知识证明的应用案例,强调2019年的区块链就相当于2000年的互联网,并且零知识证明将成为研究重点。 《总结》 朱嘉明 数字资产研究院院长 朱嘉明发表了总结讲话。他指出,在今天关于量子科学与技术的讨论背后,其实仍旧是1927年爱因斯坦与波尔的争论的著名问题:上帝是否掷骰子的问题。我们设想一个场景:如果爱因斯坦、波尔和普朗克活到今天,他们参加今天的讨论会,哪些是在他们完全意料之中的,哪些是在他们意料之外的?在如何看待宇宙的规律和决定论,在“上帝是否掷骰子”问题上,是否依然分成两个“阵营”? 朱嘉明说:如果这样的场景真的发生,他们最终很可能会在以下几个问题上 “求同存异”,形成一定的共识: (1)1920年代奠定的量子力学的原理和框架没有过时;(2)量子力学已经推动量子化学和量子生物学等交叉学科的产生与发展;(3)在一百年之后,人类终于走近,甚至进入到“量子时代”,数字经济时代不过是量子经济时代的一种比较初级的形态;(4)量子时代的重要标志就是从量子科学技术到应用的全方位突破,而且形成了R&D链条;(5)量子科学与技术已经开始产业化和商业化的互动:(6)世界正在悄然进入量子竞争时代,世界主要经济体开始设计“量子时代”战略,并将国家利益和地缘政治的因素注入“量子时代”战略:(7)Google对“量子霸权”的定义已经开启了日益激烈的量子霸权争夺战的序幕;(8)量子科学的“通识教育”迫在眉睫。 关于量子计算和“区块链”的关系是一个值得深入探讨的课题。如果承认“区块链”首先是科学,其次是技术,那么,在量子计算和区块链之间很可能存在某种基因和染色体的联系?今天已经没有办法把这个问题详细讨论, 但有一点可以肯定,就是“量子区块链”的概念很可能是成立的,甚至是值得探讨的主要方向。朱嘉明称,他倾向这样的立场:量子技术和量子科学的发展不是在摧毁或者动摇“区块链”的整个结构和体系,而是可能在很大程度上为“区块链”提供新的技术元素,将其改造成基于量子科学的一种新的技术体系。 最后,朱嘉明指出,可以发现至少在过去半个世纪里,特别在过去一、二十年里,所有重大的科学技术思想和技术,计算机、基于芯片的摩尔定律、互联网、大数据、云计算、智能手机、人工智能、虚拟世界、区块链的出现,都像被一个神秘的力量安排好的,几乎每过一段时间就推出新东西,非常有规则,非常有节奏,近似于“宏观拼图”。是不是可以说,到今天为止,该出来的都出来了,该上场的都上场了,该启示的都启示了。 如果是这样,我们需要整体思考我们处于的科学结构,包括今天会议的主题。当然,我们现在还难以真正理解,甚至感觉和意识到我们这个世界最深层的改变,特别是日益逼近的从思想到科学的“范式”变革,以及经济和社会的制度性转型的内涵。所以,我们需要以一个非常谦卑的、庄严的精神和态度面对未来。 精彩瞬间 刘扬伟 致辞 鸿海集团董事长 量子信息与区块链智库中心 聘任仪式 朱嘉明 崔巍 会议大合照 原文章作者:零壹财经,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    1633 0
  • 关于量子计算,你应该知道的七个事实
    资本实验室·今日创新观察 聚焦前沿科技创新与传统产业升级 李鑫 在很多人眼中,量子计算机被认为能够完成经典计算机所不能完成的任务。 事实上,如果量子计算机缺乏足够数量的处理单元,即量子比特,以及足够的稳定性来做有用的工作,这些好处就依旧只是理论上的。 目前,全球少数国家和地区,包括美国、中国、欧盟与日本,以国防、军工、科研部门为代表的力量都在量子计算领域发力,并带动了该领域的投资增长。 与此同时,从IBM、谷歌、英特尔到国内的百度、阿里巴巴、腾讯,大公司也正在加大该领域研发与商用探索的力度。 例如,IBM开发出了一台50量子比特的量子计算原型机,Google也推出了一款72量子比特的芯片。但是,这些产品要成为真正有用的设备,挑战犹存。 近期,IBM的两位科学家就量子计算机的总体趋势、能解决的问题,与经典计算机的关系,以及当前面临的挑战发表了自己的看法。 这些看法有助于我们对量子计算机形成更为清晰的认识,同时帮助我们对这一科学应用的前沿保持一份敬畏之心。 1.量子计算机不会取代经典计算机 IBM英国与爱尔兰首席技术官Andy Stanford Clark表示:“量子计算机永远无法运行if/then/else类型的逻辑,这是我们所熟悉的从一个步骤到另一个步骤,也就是传统冯诺依曼结构的计算机所采用的逻辑。” 2.量子计算机擅长解决优化问题 Stanford Clark认为:“当你有一个指数级的排列数需要运算时,量子计算机真的很擅长解决这些问题。” “例如,如果你正在优化飞机路线的里程,或者优化铁路网络的备件布局,那就有2的n次方种可能性,你必须尝试每一种可能性以找到最佳的解决方案。 “如果你有一个2的100次方种可能性的问题,经典计算机将难以胜任。而在一台100量子比特的量子计算机上,你在一次操作中就能解决它。” IBM超导量子比特量子计算的技术领导人Stefan Filipp说:“我们知道一些可以实现指数加速的算法。例如,量子化学或材料科学问题、计算分子的性质,都是量子计算机可以帮助解决的。” 3.量子计算机将扩展经典计算机 Stanford Clark说:“我们不会看到人们扔掉他们所有的经典计算机,并用量子计算机取代它们,” “我们将看到,就像你的经典计算机上有一个数学协处理器(maths co-processor)和一个GPU一样……在你的经典计算机旁也将有一个量子计算机协处理器。” “当你必须解决一些大规模的指数问题的时候,你可以把它打包,扔到量子协处理器上,它会注解答案,然后你会继续用你的经典算法来获得你的答案。” 4.我们需要50到60个量子比特的计算机来做有用的工作 Stanford Clark说:“量子计算机取代经典计算机的关键点是50到60个量子比特。……当我们达到50量子比特的水平,我们能够做出有用的计算。” 5.构建可工作量子计算机并非易事 Stanford Clark说:“我们目前有一个50量子比特的计算机原型,但问题是量子相干性,……这意味着你不能用你的50个量子比特来完成很多有用的事情,所以我们还有一段路要走。” Filipp补充说:“挑战在于,让硬件达到我们可以使用它并运行实用算法的水平。” “这意味着我们不仅要增加量子比特的数量,而且必须增加相干性。我们必须改进这一点,以便我们能够解决实际算法。” “我们有一个提升相干性的路线图,但在实际的量子计算机中依旧是一个重大的挑战。” 6.我们不知道如何编写有用的量子软件 Stanford Clark说:“目前我们还不知道如何编写量子计算机的复杂算法,因为我们已经如此习惯于使用经典计算机。” “我们只是没有经验,试图去用量子计算机解决我们曾用经典计算机解决的问题。” 7.量子计算机需要纠错 “量子比特内部也存在容错,”Stanford Clark补充说,量子计算机需要相当于传统计算机中发现的错误校验奇偶位。 “在量子计算机中,你需要同样的技术,这样我们就可以检测到一个比特在无意中翻转或出现在错误的状态,而错误可以被校正。”(参考信息:techrepublic) 原文章作者:资本实验室,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 抹截 2020-1-10 13:57
    1424 11
  • 美日在量子计算机领域联手,感到中国的竞争压力了?
    根据日本朝日新闻近日报道, 在量子计算机领域,美日打算联手对付中国。 为了在开发量子计算机的竞赛中击败中国,日本和美国于12月19日签署了一项协议,开展下一代量子技术合作。 这两个盟国同意共享数据并在设施上进行合作,以研究包括量子密码学应用在内的技术。 该协议对于保护国家机密至关重要,因为量子技术可能会破解目前互联网中速度较慢的系统上使用的当前代码,并产生新的不可破解的代码。 中国在量子计算机技术研究和开发上花费了巨资,远远超过了超级计算机的能力。根据欧盟委员会的数据,中国在2012年至2017年期间获得了600项左右的量子计算机相关专利,在所有国家中最多。 据说北京正加大力度开发量子通信系统,从理论上讲这是不可能被拦截的,并计划在2020年斥资1200亿日元(10.9亿美元)在安徽省建立量子计算机研究中心。 日本和美国的这项合作协议反映了他们的焦虑。中国在量子领域的投入巨大并且成果显著。据报道,量子技术应用领域目前有两个主要的方向,一个是量子计算机,一个是量子保密通讯。 在量子计算机领域,美国的谷歌公司处于全球领先地位,并且在2019年9月份宣布实现了“量子霸权”,在53个量子比特的量子计算机上运行特定的程序,获得了比现有超级计算机快得多的速度。不过,后来IBM公司的科学家宣称,谷歌的“量子霸权”名不符实。中国在量子计算机领域的研究也很深入,中科院,清华大学和浙江大学都有相关的项目,并已经取得了很多成绩。 在量子保密通讯方面,中国科技大学的潘建伟教授是领军人物。中国在2016年就发射了验证量子保密通信原理的墨子号科学实验卫星,在这一领域处于全球领先地位。 原文章作者:环球网,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 我厢 2020-1-10 13:50
    1266 0
  • 中科大在光量子计算领域取得重大突破
    来自国内的消息,12 月 24 日科技日报称,中国科学技术大学潘建伟、陆朝阳等与中外合作者一起,在国际上首次实现了 20 光子输入 60×60 模式干涉线路的玻色取样量子计算,输出了复杂度相当于 48 个量子比特的希尔伯特态空间,其维数高达 370 万亿。 这个工作同时在光子数、模式数、计算复杂度和态空间 4 个关键指标上都大幅超越之前的国际纪录,其中,态空间维数比国际同行之前的光量子计算实验高百亿倍。研究论文日前以编辑推荐形式发表于《物理评论快报》上。 研制量子计算机已成为前沿科学的最大挑战之一,其中,量子计算研究的第一个阶段性目标是实现「量子计算优越性」(也称「量子霸权」),即研制出量子计算原型机在特定任务的求解方面超越经典的超级计算机。利用超导量子比特实现随机线路取样和利用光子实现玻色取样是目前国际学术界公认的演示量子计算优越性的两大途径。 面向这一战略目标,在前期工作基础上,中国科大研究组利用自主发展的国际最高效率和最高品质单光子源、最大规模和最高透过率的多通道光学干涉仪,成功实现了 20 光子输入 60×60 模式干涉线路的玻色取样实验。与国际同行的类似工作相比,实验成功操纵的单光子数增加了 5 倍,模式数增加了 5 倍,取样速率提高了 6 万倍,输出态空间维数提高了百亿倍。其中,由于多光子高模式特性,输出态空间达到了 370 万亿维数,这等效于 48 个量子比特展开的希尔伯特空间。因此,实验首次将玻色取样推进到一个全新的区域:无法通过经典计算机直接全面验证该玻色取样量子计算原型机,朝着演示量子计算优越性的科学目标迈出了关键的一步。 审稿人评价该工作「在解决关键问题上迈出了重要几步」、是「一个巨大的飞跃」。美国物理学会 Physics 网站总结指出:“这意味着量子计算领域的一个里程碑:接近经典计算机不能模拟量子系统的地步。” 所谓量子优越性,英文 Quantum Supremacy,又称量子霸权,指的是量子计算机在某个特定问题上的计算能力远超过性能最好的超算,证明量子计算机的优越性。因此,量子优越性被认为是量子计算发展道路上的一个重要里程碑。 2019 年 10 月 23 日,谷歌在持续重金投入量子计算 13 年后,成功摘取量子计算领域的这个重要里程碑:实验证明「量子优越性」。在特定任务上,量子计算机可以大大超越经典计算机的计算能力了。 值得一提的是,在目前国际学术界公认的演示量子计算优越性的两大途径中,谷歌量子 AI 团队所针对的问题是随机量子线路采样,而中科大团队的光子玻色采样实验则是另一途径。 谷歌的阶段性实验绝不是终点,而是一个起点。实现「量子优越性」仅仅是量子计算发展的第一步,在新兴量子技术国际大会的白皮书中,量子计算研究三个发展阶段得到了国家专家的共识,其中第一个阶段就是实现量子优越性,这一阶段性目标将在近期实现。第二个阶段是实现具有应用价值的专用量子模拟系统; 第三个阶段,则是实现真正可编程的通用量子计算机,而这个目标,还需要「全世界学术界的长期艰苦努力」。 阅读全文 原文章作者:威锋网,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 经清韵 2020-1-10 13:48
    1763 0
  • 量子霸权是什么?实现了吗?量子计算机真的能超越经典计算机吗?
    量子霸权只是一个名词而已,实际意思并没有听起来那么霸气,不过国内的科普和媒体比较喜欢用这个词。 谷歌宣布实现量子霸权? 前些天,谷歌公司在自然杂志上发布了封面论文,声称所研发的拥有53个量子比特的量子计算机在处理随机线路采样问题上超越经典超级计算机。 这次谷歌在论文中和报道中声明他们并非实现了量子霸权,而是证明了量子优越性。但国内媒体已经习惯了使用量子霸权这个词了,所以国内大部分新闻报道的标题都是谷歌实现了量子霸权。包括我在转发这一消息时也是使用了量子霸权这个词,因为这个词比较霸气侧漏,最主要是太流行了,一说出来大家都基本知道发生了什么事,写个量子优越性大家反而无法真正理解究竟发生了什么事。况且量子霸权和量子优越性其实只是释义上的差别,两者英文其实是同一个词:Quantum supremacy. 不过在国内通用的量子霸权这个词本身其实挺让人误解的,以为发生了什么不得了的事,以为可以称霸世界统一地球了……事实究竟是怎样呢? 量子霸权究竟是什么? 其实量子霸权真正的意思是量子计算机在处理某些特定问题时的性能超过已有的所有经典计算机。 注意,是处理某些特定问题时!量子计算机并非处理所有问题都能比经典计算机快,而是只有处理那些可以进行并行计算的问题时会有优势,比如那些含有一个或多个变量的计算。 所以实际上把它翻译成量子优越性更加准确和合理,可能正是由于量子霸权这个名字过于霸气,所以当谷歌的新闻出来后,我在科学群里听到很多对此质疑的声音,不但质疑所谓的量子霸权,甚至质疑量子计算机的真实性。 量子优越性真的实现了吗? IBM公司是第一个跳出来提出质疑的,但它并不是质疑谷歌的量子计算机的真实性和谷歌量子计算机有没有那么强,而是质疑谷歌论文中的超级计算机有没有那么弱!为什么IBM会那么暴躁?除了由于在量子计算中竞争对手的关系外,更主要的原因是此次谷歌论文中需要算10000年的超级计算机所使用的就是IBM的Summit超级计算机!这是目前地球上性能最强的超级计算机!它是IBM公司制造的。 看着自家的骄傲——地表最强超级计算机被秒成渣,谁能忍这口气? IBM在谷歌论文发布前一天提交了论文,声称谷歌在计算中并未对超级计算机进行优化,IBM论文中给出了优化方案,通过优化,Summit超级计算机只需要2.5天即可完成谷歌的计算任务,与谷歌论文中给出的10000年相差了1461000倍。IBM公司据此声称谷歌并未实现量子霸权。 问题是谷歌的量子计算机只用了200秒……200秒比2.5天快了1080倍,虽然没有原来的1461000倍那么夸张,但也已经是压倒性优势了……我认为这已经完全展现了量子优越性。 量子计算机真的可以实现吗? 此次谷歌证明量子优越性的论文其实早在9月份就曾经在NASA官网意外曝光,不过由于当时已经提交的论文并未通过同行评审,因此NASA光速撤回了,而此次自然杂志正式刊发并作为封面论文,表明已经通过了同行评审,没毛病,因此如果要怀疑量子计算机的可行性,那就相当于在质疑自然杂志的专业评审的专业性了。我不认为这是一个明智的表现。 另一方面,同样在研发量子计算机的竞争对手IBM公司同样没有质疑谷歌量子计算机计算性能的真实性,他们也一直在研发量子计算机,如果量子计算机真的无法实现,坐拥世界最强超级计算机的IBM公司理应以此提出质疑,而不是利用优化超级计算机来缩小差距后依然被秒成渣。 展望 谷歌这次证明了量子计算机的可行性和优越性,表明这条路是可行的并且是值得走的,不过也同时指出,这只是个开始,以后的路还长,离实用化的通用可编程的量子计算机还有多长的路要走?也许5年,也许10年,也许更长……但既然路是通的,就应该走下去,量子计算机的未来是光明的。 目前谷歌的53比特量子计算机属于试验机,其处理的随机线路采样问题并没有实用性,但是量子计算机的未来方向是可编程的通用量子计算机,将可以通过编程处理所有适合并行计算的问题,这方面的应用在科研领域用途广泛,比如构建理论模型、化学模拟、药物研发等各方各面,将对科学、科技、医疗等方面产生深远影响,我们期待那一天尽快到来。 原文章作者:星宇飘零,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 镘怃 2020-1-10 13:40
    1686 0
  • 新兴的“概率计算机”会弥合计算机和量子计算机之间的差距?
    量子计算机可能还需要几十年才能做到解决今天经典计算机不够快或效率不足以解决的问题,但新兴的“概率计算机”可能会弥合经典计算和量子计算之间的差距。普渡大学和日本东北大学工程师建造了第一个硬件演示概率计算机的基本单元(称为p位),如何能够执行通常需要量子计算机执行的计算。其研究成果发表在《自然》上期刊上,引入了一种设备,作为构建概率计算机的基础。以更有效地解决药物研究、加密和网络安全、金融服务、数据分析和供应链物流等领域的问题。 经典计算机以称为比特的0和1形式存储和使用信息。量子计算机使用的量子位可以同时为0和1。由普渡大学电气和计算机工程杰出教授苏普里约·达塔(Supriyo Datta)领导的一个研究小组,提出了使用p位概率计算机的想法,p位在任何给定时间都可以是0或1,并且在两者之间快速波动。有一组有用的问题可以用量子位来解决,也可以用p位来解决。研究人员说,量子比特需要非常低温才能工作,而p比特像今天的电子产品一样在室温下工作,因此现有的硬件可以用来构建概率计算机。 该团队制造了一种设备,它是磁阻随机存取存储器(MRAM)的修改版本,有些类型的计算机现在使用它来存储信息,该技术使用磁铁的取向来创建对应于0或1的电阻状态。东北大学研究人员William Borders,Shusuke Fukami和Hideo Ohno改变了一种MRAM设备,使其故意不稳定,以更好地促进p位的波动能力。普渡大学研究人员将这种设备与晶体管结合起来,构建了一个可以控制波动的三端单元。八个这样的p比特单元被互连以构建概率计算机。该电路成功地解决了通常被认为是“量子”的问题:将35、161和945等数字分解或分解为更小的数字,这种计算称为整数分解。 这些计算完全在当今经典计算机的能力范围内,但研究人员认为,研究展示的概率方法将占用更少的空间和能量。普渡大学电气和计算机工程博士生艾哈迈德·泽山·佩尔瓦伊兹说:在一个芯片上,这种电路将占用与晶体管相同的面积,但它会执行需要数千个晶体管才能完成的功能。运行方式也可以通过大量p位的并行操作来加快计算速度。实际上,需要数百个p位来解决更大的问题,这并不是太远。在不久的将来,p位技术可以更好地帮助机器像人类一样学习,或者优化货物进入市场的路线。 博科园|研究/来自:普渡大学 参考期刊《自然》 DOI: 10.1038/s41586-019-1557-9 博科园|科学、科技、科研、科普 关注“博科园”看更多大美宇宙科学 原文章作者:博科园,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 干萌阳 2020-1-10 13:36
    1073 0
  • Google“量子优越性”论文正式发表,量子计算到底是什么?
    2019 年 10 月 23 日,Nature 正式刊登了 Google 关于“实现量子优越性”的论文——《使用可编程超导处理器的量子优势》。这篇论文曾在一个月前被泄漏,但很快被删掉了。 “量子优越性”是指量子计算机可以完成经典计算机(当今流行的计算机)无法做到的事情。这个概念最早由加州理工学院理论物理教授 John Preskill 在 2012 年提出。 理论上,只要给足够的时间,经典计算机可以解决任何可计算的问题。因此,“量子优越性”的标准是在同一个计算任务上,量子计算机比经典计算机有显著的(指数)加速。 Google 的论文显示,他们制造出了 53 个量子比特数的量子计算机,计算能力超经典超级计算机。同样的计算量,量子计算机用 200 秒就完成了,而目前最强的经典超级计算机,要花费 10000 年才能完成。 IBM 的研究人员对此有不同看法。10 月 21 日,IBM 的研究人员发文,质疑了 Google 的实验方法:Google 在估算经典超级计算机需要 10000 年来计算的估算上出了问题,而 IBM 的方法可以让超算在 2.5 天内以更高的保真度完成相同计算任务。这还是” 保守的、最坏情况的估计 “,其他研究能进一步减少时间。 不管是 10000 年还是 2.5 天,量子计算机的速度都是远超经典计算机,这背后关键原因是量子并行计算。解释量子并行计算,要从量子的属性说起。 “量子”不是具体指某一种粒子,而是量子世界中物质客体的总称,可以是光子、电子、原子、原子核、基本粒子等微观粒子,也可以是宏观尺度下的量子系统,比如“薛定谔猫”。 在我们的日常经验中,宏观世界物体的物理量和状态在某个时刻总是确定的。比如,一个灯泡要么是开的,要么是关的,不可能是即开着又关着的。 但在量子世界里,“即开着又关着的灯泡”是存在的,因为量子具有叠加态。量子叠加是指,一个量子系统可以处在不同量子态的叠加态上。简言之,就是两种状态叠加在一起。 “薛定谔的猫”就是解释量子叠加的一个思想实验:把猫关在一个不透明的箱子里,箱子里有一个装置,可以释放出毒气。如果不打开箱子去观察(测量),猫就陷于一种死/活的叠加状态。 除了叠加态,量子还有另一个重要的特性——量子纠缠。量子纠缠是指,两个粒子即使相隔数光年之遥,也能够具有相互联系的特性。 1981 年,美国物理学家查德·费曼提出,原则上,人们可以设计一种计算机,该计算机通过量子力学特性来工作,模拟量子系统并采用量子方程得到解。由于量子系统具有天然的并行处理能力,用它所实现的计算机很可能会远远超越经典计算机。 经典计算机的信息单位是比特,一般用 “0” 和 “1” 来表示。一个比特,要么是“0”,要么是“1”。量子计算机的信息单位是“量子比特”。上面说到,量子具有叠加态的特性,因此量子比特可以同时处于“0”和“1”的状态。 有人做过一个比喻:经典比特是 “开关”,只有开和关两个状态(0 和 1),而量子比特是 “旋钮”,就像收音机上调频的旋钮那样,有无穷多个状态。经典计算机通过操纵经典比特进行运算,而量子计算机是操纵量子比特,本质上就是去旋转它们。 由于这种叠加的特性,让量子计算机可以具备了强大的并行计算能力。在设计量子计算机时,通常会利用量子纠缠的特性,让一个粒子和其他粒子纠缠,进一步提升并行计算能力。简言之,利用量子叠加和量子纠缠可使计算能力指数级增长。 制造量子计算机不是件容易的事。由于量子比特的量子态非常脆弱,打造量子计算机主要困难之一是保持量子态超低温度。“噪音”的最轻微振动或温度扰动的变化,都可能导致粒子在工作正常完成之前就发生量子行为的衰减,这被称为“退相干(Decoherence)”现象。 因此量子计算机必须在极度低温条件下工作,以尽力保护量子比特不受外界环境影响。其次,因为量子比特的不稳定性,量子计算的精度也存在问题,保真度不高。 不少研究人员都认为,Google 的成果推动量子计算往前走了一大步,但大家都很清楚,量子计算的应用还是非常有限。 目前,经典计算机依旧是解决大多数问题最简单、最经济的解决方案。而量子计算机适用于材料科学、药物研究和密码学等领域,有公司已经在试验将其应用于汽车行业和制药业。此外,机器学习里核心的优化过程与量子计算是天作之合,Google 花这么大力气研发量子计算机也就不奇怪了。 原文章作者:PingWest品玩,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 盯袈 2020-1-10 13:20
    3652 2
  • 俄罗斯出台国家量子行动计划,加入全球量子计算“争霸赛”
    全球量子计算“争霸赛”激战正酣,俄罗斯不甘示弱,成为最新“选手”!据英国《自然》杂志网站17日报道,俄罗斯副总理马克西姆·阿基莫夫12月6日于索契举行的技术论坛上提出国家量子行动计划,拟5年内投资约7.9亿美元,打造一台实用的量子计算机,并希望在实用量子技术领域赶上其他国家。 俄罗斯量子中心量子物理学家阿莱希耶·费多洛夫表示:“这是一项重大利好,如果一切按计划进行,有望将俄罗斯量子科学提升到世界一流水平。” 与传统计算机只用0和1储存与处理数据不同,量子计算机的量子比特(qubit)既可为0和1,也可为这两者的叠加。因此,量子计算机的处理速度理论上要远超传统计算机,有望在生物医学、通信和计算等多领域“大展拳脚”。 有鉴于此,量子技术已得到多国政府大力支持。欧盟于2016年宣布启动11亿美元的“量子旗舰”计划;德国于2019年8月宣布了6.5亿欧元的国家量子计划;中美两国也在量子科学和技术上投入数十亿美元。这场竞赛旨在建造出在某些任务上的表现优于传统计算机的量子计算机。今年10月,谷歌宣布一款执行特定计算任务的量子处理器已实现这种量子霸权。 但俄罗斯距这一里程碑还很遥远。莫斯科国立科技大学的工程师伊利亚·贝塞丁认为:“资金不足使俄罗斯量子科学家无法与谷歌等公司竞争。”贝塞丁小组已研制出一种基于超导材料的量子处理器原型,可处理2个量子比特;但谷歌的量子计算机可处理53个量子比特。 贝塞丁说:“迄今还没有团队获得接近实际应用所需的量子计算能力,这一领域存在许多技术挑战,这为俄罗斯量子技术的发展提供了契机,最新量子战略的到来恰逢其时。” 包括德国卡尔斯鲁厄理工学院凝聚态物理学家阿列克谢·乌斯斯蒂诺夫在内的一些俄罗斯量子科学家已获政府拨款,在俄罗斯建立研究小组。 但奥地利因斯布鲁克大学的量子科学家彼得·佐勒怀疑,单凭这一举措是否足以吸引有才华的年轻科学家从事量子研究和技术开发。他认为,重建对俄罗斯科学体系的信任并重建俄罗斯的教育传统,比宣布一项量子计划要困难得多。 声明:转载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担,文章来源于网络,如有侵权联系删除! 原文章作者:量财经,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 仑舜牵 2020-1-10 12:50
    3498 0
  • 量子计算深度报告:人工智能的洪荒之力,比经典算法节省大量时间
    量子计算机有望提供更强的计算能力。量子计算机提供了另一条增强计算能力的思路。它的并行计算的特性,使得它可以一次同时处理多个任务,有望实现计算能力上的超越。 乐晴智库,行业深度研究(微信公众号:乐晴智库) 量子计算的算力呈指数级增长 量子计算的核心优势是可以实现高速并行计算。在计算机科学中,无论经典计算还是量子计算,他们的计算功能的实现都可以分解为简单的逻辑门的运算,包括:“与”门,“或”门,“非”门,“异或”门等。简单来讲,每一次逻辑门的运算(简称操作)都是都要消耗一个单位时间来完成。 经典计算机的运算模式通常是一步一步进行的。它的每一个数字都是单独存储的,而且是逐个运算。所以对于 4 个数字进行同一个操作时,要消耗 4 单位时间。而量子计算中,一个 2 个量子比特的存储器可以同时存储 4 个数字,这里一个量子态可以代表所有存储的数字。 完整报告下载:乐晴智库网站 www.767stock.com 科学家通过特定设计对量子态进行一次变换,即可对 4 个数字同时操作,而且只消耗 1 单位时间。这种变换相当于经典计算的逻辑门,实现了对存储器中的数字并行运算,这被称为量子并行计算。可以看到,当量子比特数 量越大时,这种运算速度的优势将越明显。它可以达到经典计算机不可比拟的运算速度和信息处理功能。 量子计算机的量子比特数量以指数形式增长,算力将以指数的指数增长。对于量子计算机,在半导体材料和超导材料等领域,科学家也已经积累了数十年的理论与经验。 现有的最有希望的量子计算机方案之一就是低温超导系统,它涉及了半导体材料与超导材料的应用,主要是基于硅晶体,掺杂一定量的超导材料,实现量子计算。而现有的技术积累将极大促进该方案的发展与快速突破,用更短的时间(相比与经典计算机)实现大规模的商业化应用。 可以看到,量子计算机的量子比特数量以指数增长的形式快速上升,从 2003 年起的 1 位量子比特,到 2013 年 512 位量子比特的计算机,再到 2015 年实现 1000 位量子比特。目前,非通用型量子计算机的已经实现了 1000 位量子比特,在特定算法上(比如模拟退火,一种优化方法),计算效率比经典计算机要快一亿倍。 量子计算机的全球商业化进程加速 量子计算机经过近 40 年的时间的理论研究阶段,在 2007 年首次实现硬件方面商业化。目前发展迅速的是非通用型量子计算机,而通用型量子计算机还处于起步阶段。我们认为,通用型量子计算机和非通用型量子计算机最终将在市场上共存,并最终共同向经典计算机的市场份额发起挑战。 2007 年,D-wave Systems 实现了历史上第一台商用量子计算机。宣布研制成功 16量子比特的量子计算机——“猎户座”(Orion)。D-wave 公司的量子计算机是用超导量子器件做成的。所使用量子计算机方式是绝热量子计算,是将量子计算体系放置在体系的基态,而最终的计算结果就是最后的量子体系的基态。 2011 年 5 月 11 日,该公司正式发布了全球第一款商用型量子计算机“D-Wave One”,实现了 128 位量子比特。它不是通用量子计算机,并不能运行所有的量子算法。D-wave 实际上是一台量子退火机(quantum annealing machine),在图像搜索方面确实具有优势。 Google 和 NASA 花1000 万美金买一台 D-wave,共同建立了 Quantum AI Lab。2013 年它研制出的产品D-wave Two,实现了 512 位量子比特,并将其销售给了 Google,用于 Google 内部的量子计算的相关研发。截止到 2014 年,该公司的累计融资总额达到 1.6 亿美元。 量子人工智能算法相比经典算法节省大量时间 与经典计算机不同,量子计算机使用经典算法,将无法实现并行计算。经典计算机的计算核心使用的是中央处理器,是一种基于半导体理论设计的电子芯片,用于串行运算。而量子计算机中,它的计算核心是量子芯片,通过量子的叠加性带来了并行运算的能力,替代传统的电子芯片。 可以看到,量子计算机与经典计算机的物理实现的完全不同,如果在量子计算机中使用经典算法的话,那么量子芯片将和普通电子芯片发挥基本相同的功能,只能实现串行计算。这是由于设计经典算法时,其设计思想是基于串行运算而得到的,这是经典算法自身的局限性。 需要设计相应的量子人工智能算法,才能实现量子计算的超强算力。这种专门面向量子计算设计的人工智能算法被称为量子人工智能算法。近些年,在量子人工智能算法研究放面,谷歌开始建立量子人工智实验室,包括微软等在做一些人工智能方面的东西。 这几年开始,甚至在 AlphaGo 出来之前,在学界就已经有一些研究成果。人工智能里面的分类问题,是大数据中常见的任务,根据已有的数据体现规律,判断新数据是属于哪一类。MIT 的研究小组在这方面已经取得了理论进展,实现了相应的量子人工智能算法。相比于经典算法,该量子算法实现了指数级的加速效果。 量子计算提升人工智能效率,拓展应用场景 在很多应用领域,人工智能需要拥有快速处理数据、快速响应的能力。比如智能驾驶等应用场景,对于人工智能的反应速度要求很高。再比如手机上的人工智能系统,对于数据的处理能力要求非常高,没法做到这么大量的数据快速传输到服务器端。这些应用场景中,亟需人工智能的硬件系统实现可移动化和快速响应能力。 服务器、云计算、量子计算是人工智能算力发展的必经阶段 随着人工智能对硬件计算能力的需求不断提升,人工智能从单机或者小型服务器模式,逐步转型为云计算模式。目前,随着人工智能应用的发展,单机或者小型服务器模式的两个劣势逐渐显现。 一方面,这种模式可提供的算力达到了一个瓶颈阶段,已无法满足人工智能对算力的需求; 另一方面,这种模式是一次性采购的,对于用户的资金压力较大,并且后期维护成本不低,需要自己搭建相应的软件环境。现阶段一种主要的解决方案思路是将人工智能应用或者服务放在云端,运用云计算平台提供更加优质廉价的人工智能服务。主要的优点是可以按照实际需求来购买计算能力,随时满足现阶段的应用需求。另一方面是付费模式相对弹性,按照使用状况来逐次结算费用,减轻资金压力。 随着数据量的急剧增长,量子计算的革命性算力才能满足人工智能的需求。数据量的增长速度是呈指数级变化的。在摩尔定律近乎失效的情况下,基于现有的计算能力,在如此庞大的数据面前,人工智能的训练学习过程将变得无比漫长,甚至完全无法实现最基本的功能。 而量子计算机的量子比特数量以指数形式增长,也就是每两年翻一番。又因为量子计算的特点,其计算能力是量子比特数量的指数级,所以最终随着不断发展,其算力将以指数的指数增长。这个增长速度将远远大于数据量的增长,为数据爆发时代的人工智能带来了强大的硬件基础。 实际应用:量子计算可用于大数据搜索 在大数据中进行快速搜索,这是一项适用于量子计算的计算任务。经典算法只能是一个接一个地搜寻,直到找到所要的目标为止。比如从 N 个未分类的客户中寻找出某个特定的客户,这种算法平均地讲要寻找 N/2 次,才能以 1/2 的概率找到。然而这样的搜索效率十分低下,对于各种大数据的应用场景基本不存在应用价值。 量子计算时代将拓展人工智能应用场景 从服务器到云计算,人工智能的应用场景得到了极大的拓展,我们认为量子计算也将拓展人工智能的应用场景。我们认为,人工智能的发展存在三个阶段:服务器时代、云计算时代、量子计算时代。其中量子计算时代为人工智能带来的颠覆,除了计算能力方面,更重要的是极大地增加了应用场景。 完整报告下载:乐晴智库网站 www.767stock.com 乐晴智库,行业深度研究 微信公众号:乐晴智库 个人微信号:lqzk777 新浪微博:乐晴智库 原文章作者:乐晴智库,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 懵碎 2020-1-10 12:35
    1125 0
  • 量子计算的20年发展历程
    从事量子计算研究的新兴公司Rigetti预计2019年将会发布一个容量为128比特的计算系统,这一实现将是量子领域的重大进步,也标志着我们距离实现量子优势(Quantum Advantage )和量子霸权(Quantum Supremacy)这两个目标更近一步。 量子优势指的是量子计算机在执行计算时可以比经典计算机的速度快几百甚至几千倍,这意味着一旦量子计算机强大到可以完成经典超级计算机根本无法执行的计算时,量子霸权这个目标的实现就变得水到渠成。而构建具有更高量子位的计算系统是量子计算实现量子优势和量子霸权这两个终极目标的基础,目前该领域正在迅速发展。 1998年,IBM、牛津、伯克利、斯坦福和麻省理工学院的研究人员制作了一个2比特的计算系统。2018年,谷歌证实它能够制造出72比特的计算系统。而Rigetti公司宣布其将使量子计算系统得到进一步发展:在一年内发布一个128比特的量子系统。 虽然对外行来说,量子计算依旧不是一个家喻户晓的术语,但实际上量子计算是在1982年便提出的一门相当新的技术。我们日常使用的计算机系统和量子计算系统之间的根本区别在于后端处理信息的方式。 经典计算机依赖于二进制系统,也就是说计算机只能使用0和1来处理信息。而位是计算机中最小的数据单元,所有运行的应用程序数据 、出现的图像都被翻译成位,其目的是使计算机能够识别和处理。 一个量子比特以只能存在于一种状态或另一种状态,且一次只能处理一位的信息为基础,通过使其成为二维的方式来处理复杂的计算。量子比特可以一次性处理同时存在于多个状态的信息,这被称为量子叠加(Superposition),也意味着量子比特可以同时保持0,1或0和1的任意组合,从而使量子系统具有比二进制系统更快和更高效的潜力。 延 伸 阅 读 01量子计算机如何实现量子霸权 02 精,一文读懂量子计算 03D-Wave量子计算机以超千倍的速度破解RSA带来的新希望 04Atos提供了世界上性能最好的商用量子计算模拟器 05IBM将在3至5年内使量子计算机商业化 文章投稿: Sakura@qtumist.com 转载授权:Support@qtumist.com 量子客Qtumist 是中国领先的量子技术交流社区。致力于推动量子技术的普及与量子学习社区的建设。本平台将汇聚量子方面的研究者,并收录其精英人士们对该领域探索的经验,饶益大家。 欲了解更多,请关注量子客微信公众号:Qtumist 量子客网址:http://www.qtumist.com/ 原文章作者:量子客Qtumist,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 金静曼 2020-1-10 11:59
    1241 1
  • 微软的更好的量子位更快地进行量子计算
    微软一直在研究一种称为拓扑量子比特的量子比特技术,它期望将从量子计算技术中获得收益,而今天量子计算技术仅仅是一个承诺。 量子计算机难以理解,难以构建,难以操作且难以编程。由于它们仅在冷却到比绝对零高出一小部分的程度时才起作用-比外层空间还冷。 它们运行在客户可以使用的数据中心中,可以解决传统计算机无法处理的计算难题,从而带来巨大的好处,古典计算机将数据存储为代表0或1的位。但是,量子位可以通过称为叠加的特殊量子物理学原理同时存储0和1的组合。量子位可以通过另一种称为纠缠的现象捆绑在一起。总之,这些现象应使量子计算机能够同时探索大量可能的解决方案。 基本的量子计算问题之一是量子位容易受到干扰。这就是为什么量子计算机的心脏放在一个桶大小的冷藏容器中的原因。 即使有这种隔离,今天的单个量子位也只能在不到一秒的时间内完成有用的工作。为了进行补偿,量子计算机设计人员计划了一种称为纠错的技术,该技术将许多量子比特一起轭合成一个有效的量子比特,称为逻辑量子比特。这个想法是,当逻辑量子位的许多基础物理量子位误入歧途时,它们可以执行有用的处理工作。 Microsoft拓扑量子位的一个缺点是它们尚不可用。替代设计可能无法很好地起作用,但是它们正在当今的实际测试中。 微软还试图改善量子计算的其他方面。一种是控制系统,在当今的量子计算机中,它是一团混乱的数百根电线,每根电线都是用于与量子比特通信的昂贵同轴电缆。:“新算法可以成为解决问题的突破。” “我们需要使它们变得更好,我们需要对其进行优化,我们需要努力。” 原文章作者:一点前沿科技追踪,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 值蓊 2020-1-10 11:49
    3052 0
  • 亚马逊推量子计算服务Braket量子计算机离我们不远了
    【CNMO新闻】和量子力学搭得上边的东西最近有很多,大部分玄而又玄,让人不明觉厉。不过量子计算机并不在上述“量子魔法”范围内。量子计算机最早于1982年被提出,不同于传统计算机的计算方式,量子计算机处理量子信息,速度更快,范围更广。 亚马逊AWS 近日,亚马逊旗下子公司AWS(Amazon Web Services, Inc.)宣布了一项量子计算服务Braket,这是一项新的云计算服务,为开发者和研究人员提供了一种改进量子电路的方法。 根据亚马逊的说法,用户可以构建自己的量子电路和应用程序,并在亚马逊的机器上进行测试。但亚马逊实际上并没有建造量子计算机,而是与其他有量子计算机的组织合作。有了Braket,我们会发现我们距离一个可实用的量子计算机又近了一步。 因为构建量子计算机是一件特别困难的工程,所以亚马逊决定跳过这一步,它选择与三家拥有量子计算机的公司合作,它们分别是D-Wave、IonQ和Rigetti。 D-Wave量子计算机 简单来说,Braket是一个统一的接口,开发者可以通过它访问这三家公司的机器,让他们有机会测试和改进他们想出的任何量子程序。Rigetti首席执行官Chad Rigetti说:“通过与AWS合作,我们将能够将系统接入到更广阔的市场,并帮助加快这一新兴产业的发展。” 原文章作者:手机中国,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 顿诡慎 2020-1-10 11:46
    3594 0
  • 量子计算的疯狂赛道上,四大巨头如何应战?
    图片来源@视觉中国 文|锌刻度,作者|麦柯,编辑|潘娟 近日,在AWS re:Invent全球大会上,亚马逊官宣AWS三箭齐发量子计算组合拳:Braket、AWS量子计算中心和量子解决方案实验室。 随着亚马逊的强势入局,加上此前鼓吹量子霸权的谷歌、起步最早的IBM、暗自发力的微软,这场关于量子计算的巨人战争正式打响。 看似入局新人,实则有备而来 从最近的情况看,亚马逊的切入点还是比较务实的。因为量子计算还是处于初级阶段。因此,企业级应用尚未形成,而亚马逊希望借助Braket帮企业客户开始学习和试验量子计算,通过比较不同量子技术的开发、仿真和测试环境,评估适合自身发展的演化路径。 一直以来,AWS提供着从磁盘存储到卫星控制天线等 160多种服务,这次亚马逊选择了非自建而是将量子计算机访问放入其云服务的范围,让客户通过AWS就可以访问合作伙伴的量子计算系统。 Braket,名称来自量子力学的狄拉克符号——“bra-ket”,用来描述量子力学状态。它让客户可以自行构建量子算法和基本应用程序,然后在AWS上进行模拟测试。 目前,亚马逊的合作伙伴展示了三种不同的量子处理器方法,它们是基于量子比特(qubit)设备构建的,量子比特将数据编码成量子力学效应。其中,旧金山湾区的Rigetti 使用了与 IBM 和谷歌相同的超导芯片;加拿大的D-Wave使用类似方法来使处理器进行量子退火(quantum annealing);马里兰大学的衍生企业 IonQ 使用激光控制的离子阱(Ion trap)装置。亚马逊表示,该服务预计2020年向所有企业客户推出。 亚马逊进军量子计算,迅速得到了合作伙伴的积极反馈。波音公司表示,正在从事与基础材料、系统优化、安全通信等方面切入量子计算研究,希望借助颠覆性的量子计算、传感和网络技术,解决航空航天行业遇到的挑战,提升产品和服务。因此,在发展的过程中,特别期待与AWS协作。 应该说,从一开始,亚马逊就在搭建产学研一条龙服务。 而把“AWS量子计算中心”实验室建在加州理工旁边,亚马逊的初衷也是希望汇集人才,促进科学和工业的创新。 尤其是在传统计算机无法企及的领域,量子计算很可能在储能、化工、材料、药物、工艺优化和机器学习等领域发挥作用。 一边是高校,一边是企业,亚马逊的桥梁纽带作用定位明确,并且着力打造量子解决方案实验室,将计划把研讨会与头脑风暴相结合,帮助客户从业务挑战倒推,逐步地、有效地使用量子计算机,进而开始开发自己的量子计算策略,建立内部的专业知识,最终部署量子应用。 目前,合作伙伴网络(APN)成员包括:1Qbit、Rahko、Rigetti、QCWare、QSimulate、Xanadu和Zapata。 作为入局的新人,亚马逊量子计算的“三驾马车”布局算是合理,显然经过了深思熟虑。 这时回头看看其他三强的表现,我们或许可以一窥量子领域的现状。AWS副总裁比尔瓦斯表示,亚马逊开展量子计算研究大概四年时间,而其他三强(微软、IBM、谷歌)都在八年以上。微软则声明自家的技术将更具实用性。 在云计算领域,微软快了一步 大概是2016年开始,IBM就已经提供了访问其量子硬件的网络渠道,谷歌也宣布不久后将开启类似服务。上述两强在原型量子处理器方面的研究处于前沿地位,并与大众汽车、摩根大通等签订了合作协议,共同开展量子计算在电动汽车电池开发和金融市场建模方面的研究。 在云计算领域,亚马逊和微软两家占据主导地位。两家公司去年总共占据了云市场的60%。其中,亚马逊的份额遥遥领先于微软(据Canalys 2018年的数据,31.7% vs 16.8%)。不过,近期微软刚刚从美国国防部手里抢到了100亿美元云计算大单,这令亚马逊非常恼火。 而就在上个月的Ignite 2019上,微软发布了Azure Quantum量子服务,其中包括量子解决方案,量子软件和量子硬件。Azure Quantum是一个完整的开放式云生态系统,它将使量子计算组织获益。 微软推出量子计算云服务Azure Quantum 微软正在与1QBit、霍尼韦尔、IonQ和QCI合作,提供各种量子解决方案、软件和硬件。其实早在2017年,微软首次发布了量子开发套件(Quantum Development Kit)的首个公开预览版,还发布了Q#编程语言、量子计算模拟器和其他资源。 在Build 2018上,微软宣布开放其Q#编译器和量子开发工具包中的量子模拟器的源代码的计划。 今年年初,微软宣布推出微软量子网络(Microsoft Quantum Network),这是一个由个人和组织共同致力于推动量子计算的全球社区。 微软量子网络成员将与微软合作,以学习、研究和启动量子计算应用程序和硬件,并可以访问量子开发套件,成员还享有访问量子开发工具包、重要研究和专家、独家访问Azure服务以及参加量子编程和算法开发研讨会的权利。 与谷歌的“量子霸权”不同,微软花数年研究名为“拓扑量子位”(topological qubit)的技术,希望为量子计算机夯实基础。微软量子计算软件部门总经理克里斯塔·斯沃尔表示,在花了五年时间搞清楚拓扑量子比特所需的复杂硬件后,微软近乎准备好将它们投入使用。 结果,微软在量子计算的抢跑,刺激了亚马逊,后者立刻表态迎战。正因为亚马逊和微软都没有自己的量子硬件,反而确定了他们独立第三方的灵活运行模式。不过,从长远角度说,亚马逊还是会推出自己的量子处理器。 谷歌与IBM神仙打架 说起谷歌,其凭在《Nature》“量子霸权”雄文,量子计算200秒=地球最强超算1万年,震惊了世界。连总统女儿伊万卡都在推特上点赞。对此,谷歌CEO 桑达尔·皮查伊在接受《MIT科技评论》时激动地说,量子霸权就像飞机被发明,火箭上太空,足以载入史册。 皮查伊回顾道:2006年,谷歌科学家Hartmut Neven开始研究用量子计算为机器学习加速,并催生了谷歌AI量子团队。 CES上,IBM把整个量子计算系统集成到一个玻璃盒中,作为能独立工作的综合设备展出 2014年,美国物理学会院士约翰马迪尼斯加入了谷歌,担任谷歌量子硬件首席科学家,领导构建量子计算机的工作。 2016年,量子计算理论首席科学家Sergio Boixo在Nature Communications上发表了相关论文,最终聚焦了量子霸权的计算任务上来。 量子计算理论首席科学家Sergio Boixo 2018年10月,因为加州大火,谷歌圣克拉拉实验室被迫关闭,一众被休假的科学家,反而在量子霸权上实现了思维跃迁。 另据《金融时报》报道,谷歌去年跟NASA立下flag:今年实现量子霸权,让53位的量子计算机的算力秒杀传统计算机。双方合作用的量子芯片叫Bristlecone,有72个量子比特。Bristlecone必须把超导电路维持在绝对零度附近,所以没法搬离谷歌的实验室,NASA研究人员只能通过谷歌云API远程连接芯片。 按照约定,双方2019年初在NASA最强的超级计算机Pleiades上对运行仿真所需的软件进行编码,并在今年7月,比较量子电路仿真和谷歌量子计算机硬件的结果。 虽然,谷歌和NASA一直持乐观态度,但业界并不看好。阿里巴巴数据基础设施和搜索技术部门认为要实现量子霸权可能需要错误率更低的量子芯片。 南加州大学量子信息科学与技术中心主任丹尼尔里达在接受《MIT科技评论》时称,量子霸权似乎还需要其他方式抑制错误。 虽然同行众说纷纭,但是如果评论通过,就可以弹冠相庆。此前,NASA官网曾爆料草稿乌龙事件,但最后论文登上《Nature》,似乎宣告了量子计算的新时代。 于是冷眼旁观的IBM坐不住了,直接发文怒怼谷歌“误导大众”。蓝色巨人认为,谷歌的量子霸权说法是有缺陷的。因为其在并没有充分利用超级计算机的全部能力的情况下进行竞争的。 IBM认为,谷歌调整了baseline,并涉及证明一组数字是否随机分布。论文中所谓量子计算机的处理器Sycamore(梧桐)只需200秒就解决了超算需要1万年的问题(相当于18亿倍)。 而实际上,安装在橡树岭国家实验室的最先进的200-petaflop IBM超级计算机可以在两天半解决战斗,虽然没有谷歌快,但差距没有一万年那么久。所以,IBM认为谷歌的量子霸权纯粹是在忽悠。 对此,谷歌表示不予置评。 必争的赛道也是豪赌的未来 200秒与2.5天,相差1080倍。这成功引起了业界乃至公众对于量子霸权的兴趣。 但在媒体吹爆谷歌里程碑意义的同时,也必须看到,从去年特朗普签署了《国家量子倡议法案》,在成立科技政策办公室(OSTP)的同时,也宣布将在未来五年拨款12亿美元支持量子计算的研发。 响应国家号召,谷歌、IBM、微软、亚马逊等科技巨头纷纷加入战局。最近研究显示,风投已经向探索量子计算的初创企业投资了超过4.5亿美元。 当量子计算成为美国的国家战略,那么未来的全球竞争将会是业界新的主线。据《南华早报》报道,人类大脑已知的这个最微小的领域对国家安全、商务、医学、武器以及与计算机和网络相关的几乎一切事物都有重大影响。 这是因为量子计算在速度和功率方面有望比现有最大超级计算机还要高出多个数量级。因此,美国、欧盟和中国都在激烈争夺这个高科技“必杀技”。 可是,美国政府并不乐意把这一切交给随心所欲的企业去做。至少,联邦政府正在实施两项计划,精简和协调量子计算及其他与量子相关的私人与公立研究项目。这些计划旨在制定国家战略,确保美国维护技术领域的霸主地位。 中国也在量子领域不断寻求突破。按照中国的“十三五”规划纲要的要求,量子计算机已被列入科技创新2030重大项目。其中,中国在国家级量子实验室上投入了4亿美元,近年来获得的量子技术专利几乎是美国的两倍。 不得不说,量子计算正在成为兵家必争之地。然而,比起传统的图灵机、冯诺伊曼架构以及经典计算,量子力学中的量子纠缠曾经让爱因斯坦发出“鬼魅般的超距作用”的慨叹。 而当加速旋转的量子比特登堂入室,成为庞然大物——量子计算机,人类也见证了量子计算快到极致、加密破译的疯狂。 或许量子霸权的意义大于内容,在解决容错、纠错等噪声难题任重道远,但是它让业界进入了一片新天地。 澳大利亚悉尼新南威尔士大学的量子物理学家米歇尔西蒙斯说,“看起来谷歌给了我们首个量子加速在真实世界中是可行的实验证明,”也许这会吸引更多的计算机科学家和工程师到量子计算领域来,从而使该领域获益。 更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App 原文章作者:钛媒体APP,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 嬴德具 2020-1-10 11:46
    1150 1
  • 量子计算治拥堵福特实验展示应用前景
    量子计算可以解决交通拥堵问题?这个想法听起来有些先进。日前,福特汽车与微软合作,使用“量子启发”技术开展新实验,以“量子思维”测试全新交通路线算法。 简单理解,普通计算机使用二进制数字(1和0)处理数据,即使用二进制数字执行指令、储存图片、播放音乐、查看资料等操作。量子计算机则以量子比特,或者量子二进制数字形式储存数据,处理速度将更加迅速,从而用于探索各种问题的潜在解决方案。 有效避免交通拥堵,交通路线选择十分重要。而这不仅关乎单独一辆车,还要考虑更广泛区域的移动性。量子计算在这方面有显著优势。福特和微软修改了量子计算的流量模拟方案,使其能够在经典计算机上运行。结果发现,一种新算法可使西雅图市拥堵减少73%,并缩短8%通勤时间。 目前,量子计算技术运行条件苛刻,成本高昂。量子计算机广泛应用仍需等待数年时间。微软方面指出,本次西雅图交通模拟中,福特并未使用真正的量子计算机,而是在经典计算机硬件上运行了修改后的量子算法。 福特首席技术官Ken Washington指出,公司量子计算团队正不断壮大,同时与微软和其它公司合作,未来还将研究如何在机器人、空气动力学等领域应用量子计算技术。 原文章作者:汽车壹条,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 蔺娅斑 2020-1-10 11:42
    2017 0
  • 量子计算会让区块链和数字货币失去意义?会出现量子货币吗?
    近几年来,量子计算发展迅速。前不久,谷歌宣布实现量子霸权,我国“天河二号”超级计算机计算出量子霸权标准。所谓量子霸权是指,如果能证明量子计算机在某个问题上计算能力远远超过目前性能最好的超级计算机,就实现了量子计算机对传统计算机的霸权。量子计算的发展极大挑战了现有密码体制,理论上量子算法能破译Diffie-Hellman算法、RSA算法、椭圆曲线算法等非对称密码算法。 由于密码学是区块链的关键要素,是实现数字货币安全可信的技术基础,因此人们不免担忧, 量子计算的发展是否会对区块链和数字货币的安全带来威胁,甚者有人断言在量子计算机面前,区块链不值一提。但目前看,定论尚早。一是量子计算算法(如Grover算法和Shor算法)对非对称密码体系的威胁较大,但对对称密码、哈希算法的影响相对较小。 二是目前没有证据证实或证伪量子计算机可以解决NP(Nondeterministic Polynomial,非确定性多项式)完全问题,也无法轻易地论断在量子计算环境下,依据计算复杂性的密码技术就没有前途了。 三是密码学历来是在编码和破译、攻击和防守、矛和盾的对抗中发展起来,不能说有量子计算了,密码就不行了,量子计算也有其不擅长的地方,亦可构造抗量子密码体制,比如多变量公钥密码体制、基于Hash函数的数字签名方案、基于纠错码的密码体制和基于格的密码体制等。 因此,量子计算是否让区块链和数字货币失去了发展意义,短期内并不好说。但有一点是肯定的,那就是随着技术的发展,货币形态以及货币技术必然也会发生相应的改变。 在量子时代,基于区块链技术的加密货币或许将继续存在,只不过它可能会采用更先进的抗量子密码技术。而另外一种可能是,它将被一种新型的基于量子技术的货币形态替代,也就是现在学术界有人在探索的量子货币。 量子货币的概念 量子货币本质上是一种基于密码学的数字货币,其优于经典数字货币的核心是利用量子叠加态和量子计算而实现的量子防伪技术。这项技术综合运用了物理学、计算机科学和密码学等多个学科领域的前沿知识,最终可在不引入记账机制的前提下解决货币双花问题。理想的量子货币可同时实现易于识别、难于伪造、无法复制、方便使用等数字货币特性,同时结合了传统货币(纸币)和经典数字货币的优点,并避免它们各自在本质上难以克服的缺点。 1969年美国哥伦比亚大学研究生Stephen Wiesner首次提出量子货币的概念,他设想在货币上配备一个储存光子的量子器件,利用量子态作为货币的防伪标识,但只有发行货币的中央银行才能检验货币的真伪。1982年,Bennett等人试图建立第一个公钥量子货币。他们的方案仅允许一张货币花费一次,将其称为“地铁通行证”。后来人们发现他们的设计存在两个不安全因素:一是基于不明传递的不安全协议;二是可被Shor算法破解。2003年,Tokunaga等人改进了Weisner的方案,不必要求中央银行追踪每一个发行的货币,而是采用特殊的方法保证货币被修改后依然有效,这允许货币持有人在银行验钞之前对货币进行修改,实现货币交易,但缺点是,银行一旦发现伪钞必须立即发布信息,清除伪钞之前的全部交易信息,因此该方案不易实现。2009年,Aaronson提出复杂理论不可克隆定理,假设存在一个机制可以验证给定态是否等于一个有效量子货币态,一个伪造货币者如果想伪造货币必须同时拥有该验证机制。2010年,Mosca和Stebila指出一个货币伪造者即使拥有一个量子货币验证机制,也依旧不能制造出比他初始状态更多的量子货币。授权商运行一个模糊验证方法,在得到最终结果之前得不到任何有用信息,在验证过程中他必须与银行进行通信,该方案是一个量子货币私钥方案。2012年,Lutomirski等人利用扭结不变量的方法提出了一个真正意义上的量子货币公钥方案。但是,该方案的安全性目前还没有人能够证明。2015年,Subhayan等人提出量子支票协议,该协议中可信银行的任何一个合法客户端都持有一个“量子支票书”,可以发行支票,并与银行之间共享一个经典信道,由银行或它的分支机构完成货币验证。 理解量子货币的逻辑出发点:伪造与双花 货币发展史是防伪技术的发展史,也是生产者与伪造者不断斗争的历史。不管是贝壳、金属、纸、塑料还是电子的货币形态,防止伪造都是货币生产的最重要目标。尤其是到了信用货币时期,货币本身的价值属性逐渐弱化,货币防伪显得尤为重要。可以说,不能防止伪造就谈不上货币。然而,历史上从来没有一种货币可以完全解决被伪造问题,货币伪造史与货币发展史几乎一样长。直到现在,人民币、美元和欧元等各国纸币伪造案例仍时有发生。 传统货币伪造屡禁不止的一个根本原因是经典物理的易伪造特征。按照经典物理的基本原理,物理状态都可以被精确测量,只要能按照测量结果,以足够应对检验的精度重新组织物质,就可以达到伪造货币的目的。传统的货币生产机构研发的各种防伪技术,例如金属货币的花纹、锯齿,纸钞的水印、安全线、纤维、光变油墨、胶凹印特征等防伪特征,本质上只是在抬高伪造货币的门槛,但不能从根本上禁绝。虽然说可以让伪造的成本足够高以至于伪造货币无利可图,从而避免伪造,但随着技术的不断发展以及高精尖技术向民用领域的广泛应用,伪造的技术门槛亦可能下降。若伪造者投入足够物力、财力和智力,任何传统货币防伪技术在理论上都有可能被破解。 对于电子货币和数字货币而言,其形式上就是一串二进制的信息,它们需要解决的问题比纸钞的防伪更加麻烦,因为在计算机里信息很容易被复制。这串信息可以利用密码学技术来防止伪造。比如说数字货币的发行机构可以对发行的每个数字货币进行签名,这样每个人都可以很方便地验证货币的真伪。此外,数字货币还存在双花问题。在甲方和乙方的交易中,如果没有任何其他人知道,甲方完全可以在和乙方交易之前偷偷备份相同的数字货币,然后假装和乙方的交易没有发生,与丙方进行交易。解决的方案是采用一个账本的形式来记录已经发生的交易,以此避免同一笔数字货币被多次花费。这个账本既可以是银行或者支付宝那样的中心化账本,也可以像比特币一样采用基于区块链技术的分布式账本。量子货币则通过量子不可克隆原理来解决货币的伪造和双花问题。 量子货币的基本原理 量子比特、量子叠加态 在经典计算机中,比特“0”和“1”都是用经典物理量编码表示的,例如可以用电压、磁场方向等,而经典物理量测量结果是唯一确定的,即一个经典比特不可能同时处于两个状态(比如同时处于“高电压”和“低电压”状态)。而量子比特是基于微观粒子的量子态存储的,其不同于经典物理状态的最重要的特点在于可以同时处于若干个微观量子态的叠加态。例如用|0>表示一个电子的基态或自旋向下,用|1>表示激发态或自旋向上,则一个微观量子态可以表示成|>=a|0>+b|0>,其中a,b都是复数,且它们的模长平方和为1。图1显示了经典数据位与量子数据位对比图,经典数据位的表示要么是0,要么是1,而量子数据位是│0>和│1>的叠加态,即可以是0也可以是1。 量子货币如何防伪防双花 微观量子态本身含有的信息非常丰富,但我们只能通过测量的方式获得其信息,而测量的行为反过来又会影响量子态,造成被测量的量子态坍缩,最终每个量子比特测量后仅能得到一个关于坍缩到的量子态的信息。另一方面,量子世界中,克隆是不可能的。换句话说,并不存在任何一个电路,能做到这样的一个功能:输入是任意一个未知的量子态,输出是两个该量子态。此为量子不可克隆(复制)基本原理。 量子不可克隆原理构成了量子货币的理论基础。量子货币在本质上也是一串信息,这点与电子货币和数字货币类似,但不同之处在于, 量子货币除了经典的二进制编码信息外,还包含以量子比特的形式存储的量子信息。采用量子比特的好处在于每个量子比特都能以叠加态的形式保存远比经典比特丰富的信息,并且这些信息无法被精确测量出来。根据量子不可克隆原理,对量子比特的测量都必然导致量子态坍缩到其中某一个叠加态上,从而永久地损失掉所有关于其他未坍缩到的状态的信息。这样就可以在本质上防止量子货币的信息被测量和复制,因为量子物理学保证了对量子比特的测量无法获得完整的信息。此外,量子货币还可采用与数字货币相似的密码学技术,避免被攻击者伪造。 量子不可克隆定理还可防止量子货币双花。具体来说,量子货币拥有者只能拥有量子态,但不能知道每一个量子态是什么,他若想知道,只能测量,但一旦测量,量子态则会塌缩变成另一个量子态(原来叠加态中的某一个),相当于量子货币拥有者自己把自己的货币销毁掉了。这样“持有量子态但并不知道量子态”的设计有效防止了货币双花,因为如果量子货币拥有者知道自己手里的量子态是什么的话,他其实是可以“克隆”很多份。 量子货币的点对点支付 相对于传统货币,数字货币的最大优点就是在于传输方便,仅需要通过网络传输信息,而不需像传统货币那样传递实物。量子货币也一样,只需要传递量子态所包含的信息即可。传递的量子态信息既可以通过发送包含这些信息的粒子(比如光子)实现,也可以通过量子通信在经典信道实现——即通信双方事先分享一个纠缠的量子态,然后仅通过经典信道传输经典的二进制信息就可以实现传递复杂的量子态的任务。 因此,基于量子货币的交易可以在交易方之间直接进行(至多只需要一个可信的第三方事先分发纠缠的量子态),不需要通过第三方账本验证。 量子货币的核心问题:如何验钞 虽然“持有量子态但并不知道量子态”使我们能利用量子不可克隆定理解决量子货币的双花问题,但同时也带来了新的问题,即如何验钞。在甲方付款给乙方的交易中,既然乙方不知道自己持有的量子态的信息,且无法通过测量得到足够的信息,那么他如何确认这是一枚合法的量子货币,不是甲方随意制造的或者是甲方已经观测过的?而如果允许采用测量的方式来验证量子货币是否合法,则甲方可以先测量自己的量子货币的量子态,然后按照坍缩后的状态构造新的量子态再发送给乙方。因为甲方知道坍缩后状态的所有信息,他可以再重新构造一个坍缩后的量子态发给丙方,这就引发了双花问题。因此,乙方无法判断甲方是否花费过这一枚量子货币,而且也无法判断坍缩状态是自己观察导致的还是甲方的观察导致的。 在理论上,无损的量子货币验钞是可行的。量子叠加态的坍缩是在有多个叠加态的时候才会发生,而如果只有唯一一个状态,就不会发生坍缩。因此,可选择“适当的”变换,使每一个合法的量子货币的量子态在经过该变换后都会在“适当的”量子比特位置上呈现出不会坍缩的唯一状态,然后再部分地测量这些量子比特的状态,不测量其他处于叠加态的量子比特,如此可在不损害原有量子态的情况下获得量子态的信息。而且如果原来的量子态是通过“适当的”密码学签名编码构造的,则这些测量出的信息就可验证原量子态编码的量子货币的合法性。 一个理论上可用的量子货币方案必须在上述的三个“适当的”地方都做出正确的选择,并给出数学上的证明。除了实现无损验钞的功能以外,还必须确保不存在验钞程序漏洞。解决这些问题,需要充分发挥密码学的作用并与量子计算相结合,探索量子加密手段,使量子货币的检验达到物理意义上的安全。 关于量子货币验钞机制的研究问题还包括:验钞是否可脱离中央银行,由持币人独立完成检验/验钞过程是否会给量子态带来损耗?是否能支持多次验钞?损耗是否会导致一定概率出错?如何应对噪音? 结语 科学总是在假想的证实和证伪中不断发展,这或许就是假想的价值。“在量子计算机面前,区块链不值一提”当然也是一种假想。从某种意义上来说,提出问题比解决问题更重要。数字货币的假想可追溯至20世纪70年代以来密码学界的梦想:手里的现金能不能像邮件一样,加个数字信封,进行加密和签名后,从一端发送到另外一端。这一梦想在大卫·乔姆、中本聪等人的不懈探索下,逐步发展为席卷全球的数字货币试验。历史表明,货币形态演化和内涵扩展受到了历次科技进步的深刻影响,这一进程不会在量子时代就此终止,而是不断向前发展。当前量子技术还支持不了量子货币,量子货币理论也存在瑕疵,有学者甚至认为未来是否适用尚难断言。但量子计算正加速发展,量子时代已不再遥远,正向我们趋近。新技术带来的挑战和机遇,值得我们关注与探索。 (原题为《姚前:量子货币:一种学术假想》。作者姚前系时任中国证券登记结算有限责任公司总经理,前央行数字货币研究所所长姚前) 原文章作者:澎湃新闻,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 泡冕 2020-1-10 11:36
    1784 0
  • 量子纠缠下的量子计算机会有多强?一个即将改变世界的发明
    前段时间谷歌官方发布了新闻称他们所研究的量子计算机“Sycamore”用200秒的时间完成了超级计算机用10000年才能完成的计算,即完成了一个“不可能”的计算。 最不可思议也是最令人担忧的地方是量子计算机的量子纠缠态的计算单元。普通的计算单元只能识别0和1,而量子计算单元能识别0、1和01混合态。 量子计算机是下一个可以永远改变零和游戏规则的事物,虽然他们可以更快更好地完成很多事情,但他们也有其局限性。在公众看来,量子计算基本上可以等同于区块链这个术语。 谁想要成为下一个中心,可以看看薛定谔猫的思想实验。这解释了一个悖论,即在现实世界的理论例子中,粒子可以同时具有两种状态。这就是量子计算的重要之处。 利用某些量子物理现象的机器,其计算能力远超传统超级计算机,有望改变世界解决复杂问题的方式。将能帮助科学家开发更高效的太阳能电池和更有效的药物,甚至对人工智能产生影响。 原文章作者:聆听细雨声,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 意福浏 2020-1-10 11:28
    3087 0
  • 量子计算应用新进展,本源量子交付定制量子软件产品
    11月28日上午,本源量子—中国海洋大学量子软件系列产品交付仪式在中国海洋大学(崂山校区)顺利举行。 本源量子此次成功交付的量子软件系列产品包括EmuWare V2.0量子虚拟机、QPanda V2.0量子软件开发包、Qurator V0.1.4量子软件开发插件、Origin Cloud OS V1.0量子云软件。该系列量子软件产品由本源量子独家开发,拥有完整的自主知识产权。 同时,为满足中国海洋大学在海洋动力过程计算、海洋药物研制与筛选等领域对量子计算技术的需求,本源量子对量子软件产品进行了定制开发。 其中,本源量子EmuWare V2.0量子虚拟机基于世界上最强大的超级计算机之一的神威太湖之光超算平台,可实现全振幅量子机、部分振幅量子机和单振幅量子机三种运行模式。在单振幅上可以模拟200多个量子比特,在部分振幅上可以模拟78个量子比特。相比于之前的版本,能够支持更多的量子门集,获得了更快的结果。多项技术指标处于国际领先水平。 2018年10月,本源量子与中国海洋大学达成战略合作协议,双方将在本源量子计算硬件、软件等技术生态平台的基础上,共同开展量子计算机原型、量子软件和量子算法等业务的研究开拓工作。 本源量子此次成功交付系列软件产品,标志着双方第一阶段以搭建基础平台为目标的合作圆满完成。基于此平台,双方将开展第二阶段的多方位合作,预计在海洋超算与大数据处理、海洋超算与人工智能、海洋动力过程计算、海洋药物研制与筛选等方面展开重点合作,多方位探索合作模式。并持续推进第三阶段合作即探索量子计算技术应用落地。 声明:转载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担,文章来源于网络,如有侵权联系删除! 原文章作者:量财经,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 惠转 2020-1-10 11:25
    3012 0
  • 谷歌取得量子计算突破:200秒完成经典计算机10000年计算任务
    图片来源:MIT Technology Review 钛媒体注:北京时间昨日晚间,据外媒报道,谷歌周三称在计算机研究领域取得了一项突破,打造出了第一台能够超越当今最强大的超级计算机能力的量子计算机。 该量子系统只用了 200 秒完成一个计算,而同样的计算用当今最强大的超级计算机 Summit 执行,需要约 10000 年。 为了详细介绍谷歌的量子成就,谷歌CEO桑德尔·皮查伊在公司网站上发表了题为“我们的量子计算里程碑意味着什么”的文章,对谷歌在量子计算领域取得的突破做了回顾,并对其应用前景进行了展望。 皮查伊在文章中称,谷歌取得这一突破前后共花费了13年的时间。当初之所以押注量子计算,是因为谷歌相信,量子计算可以加速解决一些世界上最紧迫的问题,从气候变化到疾病。 如今,有了这一突破,人们距离应用量子计算更近了一步。例如,设计更高效的电池,使用更少的能源制造肥料,并找出哪些分子可以制造有效的药物等等。 皮查伊还将谷歌取得的量子计算突破比作第一枚火箭成功脱离地球引力到达太空边缘:许多人质疑人类进入太空、探索太空的意义,但逐渐人们便意识到这是对科学来说的一个重大创举,因为它允许人类设想完全不同的旅行,到月球、火星,超越我们自己的星系;它将看似不可能的事情推上了日程。 谷歌的量子计算攻坚之路 实际上,入局量子计算领域,始于13年前。 彼时,谷歌科学家Hartmut Neven开始探索一个新的idea——用量子计算来加快机器学习的速度,并催生了谷歌AI量子团队。 2014年,美国物理学会院士John Martinis加入了谷歌,担任谷歌量子硬件首席科学家,领导构建量子计算机的工作。 两年后,量子计算理论首席科学家Sergio Boixo在Nature Communications上发表了相关论文,最终将团队的工作重点聚焦到了量子优势性计算任务上来。 这是一场伴随着风险与机遇的科研豪赌。即使对于谷歌的明星团队来说,也一样是巨大的挑战。 实际上,在去年10月之前,谷歌在量子优越性方面的进展始终有限。 然而,2018年10月,谷歌因加州野火久扑不灭,不得不短暂关闭位于圣克拉拉的实验室,一众科学家也被迫休假。但就在这期间,谷歌催生出新思路,然后在研究方法上实现了飞跃,从而为如今取得了卓越成就奠定了基础。 从经典计算机到量子计算机:计算量级的指数性突破 如今,鏖战13年,谷歌的这项研究成果终于发布。一开始,该突破性成就在 NASA 网站上发布,但不久被悄悄删除;如今,则发布在了最新一期的《自然》(“Nature”)杂志上。 Nature 同时还发表了一篇 “新闻与观点” 文章,称这一成就是量子计算的重大里程碑事件。 量子计算的一个目标是以指数级倍数超过传统经典计算机的速度执行特定计算任务。 实现这一目标需要克服许多挑战,比如在产生较大计算空间的同时保证计算错误率低,以及设计一种经典计算机难以处理、但量子计算机可以轻松完成的基准测试。 论文通讯作者 John Martinis 和同事描述了实现量子霸权所取得的技术进展。他们研制了一台由 54 个量子比特组成的处理器 (名为 Sycamore 处理器),该处理器利用量子叠加和量子纠缠实现的计算空间与经典比特所能达到的相比,实现了指数级的增加。由于有 1 个量子比特无法有效工作,处理器实际只用了 53 个量子比特。 Sycamore 处理器的照片 图片来源@新智元 量子计算的指数级计算空间增长,是由量子比特的“叠置”属性实现的。 谷歌CEO皮查伊在其文章中提到, “传统计算机中的一个比特(bit)可以将信息存储为0或1,而一个量子比特(qubit)可以同时为0和1,这便是“叠置”的属性。如果你有两个量子比特,就会有四种可能的状态,你可以把它们叠加在一起;对于333个量子比特,会有2^333,或1.7x10^100个计算状态。 显然,这种计算状态会呈“指数级”增长。你可以把它叠加在一起,允许量子计算机同时探索一个问题可能拥有的许多解决方案。” 此外,研究团队开发的纠错流程可以保证较高的运算保真度 (高达 99.99%)。为了测试该系统,团队设计了一项对量子电路产生的随机数字进行采样的任务。 对于经典计算机来说,这一任务的难度会随量子电路中量子比特数的增加而增加。最后,量子处理器在 200 秒左右的时间内从量子电路中采集了 100 万个样本,而当今最强大的超级计算机大约需要 1 万年的时间才能完成这一任务。 不过,对于谷歌在量子领域取得的开拓性成就,Nature 也在文章中指出,量子计算机投入实际应用前,还需开展更多工作,比如实现可持续的容错运算。 谷歌自身也对此表示,下一步,他们团队未来有两个主要目标:一个是将向合作者和学术研究人员,以及对开发算法和寻找今天的 NISQ 处理器的应用程序有兴趣的公司提供量子霸权级处理器,希望更多富有创造力的研究院进入这个领域;另外,他们也正在投资团队和技术,以尽快打造一台容错的量子计算机。 赞誉与质疑并存,IBM称谷歌夸大量子计算成果 从海外各大主流媒体的报道来看,无疑呈现出“谷歌突破一小步,人类科学一大步。”的赞誉之声。 这个突破经由CEO皮查伊亲自官宣、论文登上Nature 150周年纪念特刊的科技研究成果,甚至连特朗普的大女儿伊万卡都忍不住第一时间发出了推特贺电。 然而,针对谷歌“量子霸权”事件的批判和质疑也接踵而至。 就在Nature论文发表的前一天,IBM 研究人员发文称,谷歌并未充分利用超级计算机的存储潜力,所以上述说法可能站不住脚。 IBM这次的评论也可能源于两家大型科技公司在量子计算领域的激烈竞争。量子计算是一个未来领域,目前仍未出现确凿的领头羊,因此,谷歌和IBM都希望与对方一争高下,而微软、英特尔也积极参与到这项研究中。 针对此次谷歌的量子计算研究成果,IBM 团队写道: 在一个经典的系统上,同样的任务的理想模拟可以在 2.5 天内完成,而且保真度要高得多。 这实际上是一个保守的、最坏情况的估计,我们预计,随着进一步的改进,模拟的成本可以进一步降低。 持不同观点也包括其他的专家人士。美国路易斯安那州立大学教授乔纳森?道林说,目前,IBM 似乎有一些优势。谷歌选择了一个他们认为在经典机器上很难解决的问题,但现在 IBM 已证明这个问题没有谷歌想象的那么难。 这意味着谷歌或许并没有表现出量子霸权,这一赛道的竞争仍在激烈地持续。 (钛媒体编辑陶淘综合自新浪科技、量子位、新智元) 更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App 原文章作者:钛媒体APP,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 翁吉玉 2020-1-10 11:10
    1893 16
  • 模拟化学分子、加速AI研究,IBM说量子计算的重点不是破解密码
    晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI 摩尔定律已逼近极限,算力还能如何增长? 科学家们正在寻找各种替代方法,例如用超导量子处理器,取代现在的传统计算机。 IBM、谷歌、微软等公司都在砸重金,积极探索这一领域。 在旧金山的一场芯片展会上,IBM副总裁兼研究院Almaden实验室主任Jeffrey Welser接受了外媒VentureBeat的采访,回答了公众关心的问题。 量子计算机为何比经典计算机更快,除了破解密码还有哪些用途,它会有自己的摩尔定律吗? 量子位对Welser的回答做了编译整理,希望能帮你了解量子计算的现状和未来。 什么是量子计算 量子计算是一种计算形式,它利用了一些量子效应,我们认为它可以比传统算法更有效地处理某些类型的算法。量子计算机的基本单元是量子比特(qubit)。 我们都熟悉常规的比特1或0。量子比特可以是1或0,也可以同时处于1和0的叠加。 此外,你可以纠缠两个量子比特,或成百上千个量子比特。每当你对其中一个进行操作时,由于纠缠,它会立即确定所有这些量子比特的状态。 从某种意义上说,它能够进行大规模并行计算。对应到它上面的算法或问题,可以比经典计算机统快指数倍的速度,更快或更好地完成任务。 可以做到这一点的例子是化学和材料,它们本身是基于量子化学。这都是量子效应。你可以更精确地以更大的尺度模拟这些分子。 比如咖啡因分子,它有大约95个电子,不是一个特别大的分子,但是如果想在经典计算机上完全模拟它,你必须有10的48次方个经典bit。作为参考,地球上有大约10的50个原子。显然你永远无法那样做。 使用量子系统,如果它是一个非常强大的容错量子系统,你可以用160个量子比特来做。我们的系统包含50个量子比特,距离160不远。 如果你去访问IBM Q网站,可以玩一下16量子比特的系统。从某种意义上说,我们还有几年的时间去让量子系统比经典系统更具价值,它并不像以前那么遥远。 量子计算机的工作环境 量子计算机做成这样的结构是因为芯片芯片需要隔离。量子计算芯片在底部,导线全都汇入那里。 如果要使用它,会有一个罐子和周围的东西来做隔离。当它被隔离时,整个系统会降低到低压,也会降到低温,这才是真正重要的。 整个装置从上到下,温度依次降低。顶部约为40开尔文,然后再下降到4开尔文、100毫开尔文,依此类推。当到达底部时,温度是15毫开氏度,也就是绝对零度以上千分之15度。作为参考,太空的温度大约是2到3开尔文。量子计算机的核心温度比外太空要冷几百倍。 需要将它冷却的原因是隔离热干扰。任何热能都会使量子比特摆脱我们想要的叠加状态。即使有了这些隔离,量子比特也仅能保持约100微秒(万分之一秒)的叠加状态。 但这依旧是一个很短的时间,我们必须在该时间段内完成所有计算。 量子计算机现在有什么用? 大多数关注它的人主要集中在三个领域。 其中一个是化学与新材料的发现。 JSR是一家大型半导体聚合物生产商。他们相信当系统足够大时,量子计算将帮助他们发现具有不同属性的新材料,以满足任何必要的应用。材料推动了汽车、电池等产品的快速发展。在三到五年内,我们将拥有足够大的系统。 另一个用途是优化。 摩根大通和巴克莱是我们的会员。他们正在考虑使用大型量子蒙特卡罗模拟或其他优化问题,以定价债券或预测非常复杂的金融系统的行为。今天我们用超级计算机能做到这一点,问题是性能有限,你只能模拟这么多。 最后一个是AI和机器学习。 有一些机器学习问题可以映射到量子系统,量子计算机可以让你做出比在标准系统上更大的参数和特征空间集。大约六个月前,我们刚刚发表了一篇相关论文。 还有一点我没有提到过的,就是大多数人都在想的因子分解或密码学,这种观点认为量子计算机可能会非常大,因此可能会破解我们正在使用的加密方法。 确实,如果你有一个足够大的系统,可以分解一个非常大的数字,当前在互联网上使用的加密类型将是脆弱的。但要实现这一目标,可能需要一个数千甚至上百万个量子比特的系统,必须非常强大,毫无差错的量子比特,这是我们今天没有的。 在我们拥有足够大的系统之前,至少有10年甚至20年,不需要担心这个问题。同时,已经有一些已知的加密方法,不能很好地映射到量子计算机上。即使你拥有一个非常庞大的系统,也不会受到攻击。 现在考虑这些问题还为时过早。 如何看待外界质疑 我们看到它正在逐步向前发展。很多人持怀疑态度,因为只有两种已知的算法被证明在量子计算机上算得更快。这两种算法分别是:Shor算法用于因子分解,Grover算法用于搜索。其他一切更多的都是猜测,量子计算机是否真的会更快。 如果你把量子计算机扩展到一定数量的量子比特,那么它能比在经典系统上做得更多。有些研究开始运行模拟并表明可以做到这一点,破除了一些怀疑。 另一件事是,我们开始了我们自己的增加量子卷(quantum volume)的路线图。也就是说,在增加量子比特的同时,找到降低错误率的方法。这表明你可以做越来越深的电路,越来越复杂的算法。 量子计算会有摩尔定律吗 二者不可以直接比较。 我们正在研究的一件事是,希望每年将量子卷增加一倍,类似于摩尔定律将晶体管数量增加一倍的方式。 但这是一个更复杂的问题,因为量子卷增加一倍,不仅需要增加量子比特的数量。这点很容易,在40nm范围内,我们可以很容易地制造更多的量子比特。 但是如果我们不降低量子比特的错误率,那么即使有更多的量子比特也没有帮助。 我们希望找到持续定期降低错误率的方法,以摩尔定律的模式改进量子卷。但现在涉及的物理学非常不同。 原文链接: https://venturebeat.com/2019/07/14/ibm-research-explains-how-quantum-computing-works-and-could-be-the-the-supercomputer-of-the-future/ — 完 — 诚挚招聘 量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。 量子位 QbitAI · 头条号签约作者 ?'?' ? 追踪AI技术和产品新动态 原文章作者:量子位,转载或内容合作请点击 转载说明 ,违规转载法律必究。寻求报道,请 点击这里 。
    发表于2020-1-10
    最后回复 畴酉 2020-1-10 11:02
    1942 0

快速发帖

还可输入 80 个字符
您需要登录后才可以发帖 登录 | 立即注册

本版积分规则

在本IOT圈子中寻找帖子
IOT圈子地址
[复制]
Weiot(威腾网)是一家以原创内容、高端活动与全产业渠道为核心的垂直类物联网产业媒体。我们关注新兴创新的物联网领域,提供有价值的报道和服务,连接物联网创业者和各种渠道资源,助力物联网产业化升级。
15201069869
关注我们
  • 访问移动手机版
  • 官方微信公众号

© 2014-2020 Weiot.NET 威腾网 北京微物联信息技术有限公司 ( 京ICP备20000381号-1 )