• 随着太空探索的进展,商业航天领域迎来了新的发展机遇。
  • 海洋塑料污染问题成为全球环境保护的重要议题。
  • 远程工作模式的普及改变了人们的工作方式。
  • 虚拟现实和增强现实技术在教育、医疗和娱乐领域的应用不断拓展。
  • 自动化和机器人技术在制造业中的应用提高了生产效率和安全性。
  • 智能家居设备的发展正在改变人们的生活方式。
  • 气候变化引发的自然灾害频发,促使各国加大减排力度。
  • 社交媒体在政治动员和社会运动中的作用越来越显著。
  • 在线教育平台的兴起为传统教育模式带来了挑战和机遇。
  • 在线教育平台的兴起为传统教育模式带来了挑战和机遇。
  • 随着人们对健康意识的提高,健康食品和生活方式受到更多关注。
  • 全球健康危机凸显了公共卫生体系的重要性和改革的必要性。
  • 社交媒体的算法透明度问题引起了公众的广泛关注。
  • 人工智能的快速发展正在引领第四次工业革命。
  • 全球健康危机凸显了公共卫生体系的重要性和改革的必要性。
  • 生物技术在医药领域的应用为治疗复杂疾病提供了新的可能性。
  • 生物技术在农业中的应用正在改变传统的种植和养殖方式。
  • 可持续发展目标正在推动全球经济的绿色转型。
  • 全球健康危机促使各国加强公共卫生体系的建设和改革。
  • 随着全球经济不确定性增加,跨国公司的社会责任和环境影响受到更多审视。
  • 自动化和机器人技术在提高制造业效率和安全性方面发挥着关键作用。
  • 电动汽车行业的快速增长带动了新能源技术的发展。
  • 电动汽车行业的快速增长带动了新能源技术的发展。
  • 隐私保护在数字化时代变得更加重要,数据泄露事件频发。
  • 生物技术在农业领域的应用有助于提高作物产量和可持续性。
  • 大红鹰网站dhy-合作平台

    大红鹰网站dhy-合作平台

    大红鹰网站dhy 首页 > 大红鹰网站dhy > 行业动态

    中国人工智能发展的“四长四短”

    12月4日-5日,由清华大学人工智能国际治理研究院主办的2021人工智能合作与治理国际论坛在清华大学举行。在以“人工智能技术前沿与治理”为主题的论坛中,中国工程院院士、北京大学信息科学技术学院院长、鹏城实验室主任高文分享了人工智能2.0的战略、战术和安全问题。

    高文介绍,中国人工智能发展规划是从2015年7月份开始,2017年7月发布的《中国人工智能发展规划》就是人工智能2.0正式的说法,提出2020年达到与世界先进水平同步,2025年部分领先,2030年总体领先。

    他在演讲中分享到,通过和欧洲、美国等国家在人才数量、研究水平、开发能力、应用场景、数据、硬件等方面的比较分析,中国人工智能发展的水平,存在“四长四短”。即在人工智能发展政策支持、海量数据资源、具备丰富的应用场景,以及青年人才数量和成长速度等方面具有优势;在人工智能的基础理论和算法、高端芯片和关键器件、开源开放平台,以及高水平人才数量等方面则存在短板。

    “在短的方面倾注一些资源,尽快补齐短板,使得长板更长,短板不短,发展人工智能是这样的战略。”高文称。

    具体战术应该怎么做?高文表示,人工智能2.0需要重点考虑两个方面。一是做可解释的机器学习+推理,在小数据、可解释模型的研究主线上,解决人工智能的问题。第二个技术路线是靠深度神经网络,利用仿生系统+AI大算力解决问题。

    高文认为,第二条路线会是人工智能现阶段发展的主要推动方式,而靠大数据、大算力来做人工智能,关键需要有基础设施平台,需要有非常大的算力。

    据了解,高文在2018年主导成立的鹏城实验室在去年就推出了算力高达1000P FLOPS(每秒计算速度达10的18次方)的鹏城云脑2,做到节点之间延迟低、带宽非常宽,从而使得机器训练的时候,大数据很容易传输,效率可以发挥到极致。鹏城云脑2在连续三届世界超算打榜中吞吐性能方面绝对领先,在世界人工智能算力500排行中也连续两次获得第一。

    高文介绍称,用这台机器已经训练了若干个大模型,比如基于自然语言处理的大模型鹏程·盘古,基于计算机视觉、跨模态的大模型鹏程·大圣,基于多对多模式的模型鹏程·通言,以及面向生物制药、基因制药的大模型鹏程·神农等。他表示,鹏程系列模型基本都支持开源开放,通过启智开源开放平台提供开源开放的程序,可以下载进行使用。

    但由此也会带来新的问题。“如果基于类脑和大数据、大算力的技术路线,很显然有一个坎儿必须要迈过去,就是数据安全和隐私问题。”高文表示,这需要从两个层面考虑,数据和隐私安全问题、人工智能伦理问题。

    对于数据隐私安全问题,高文认为,人工智能应用离不开数据,在隐私保护和数据挖掘之间,需要找到比较好的平衡点。

    这个平衡点在哪里?高文分享了一种隐私和数据安全保护的手段——把数据模型和应用分成三层,每层用接口隔离开(数据到模型之间通过数据程序接口隔离,模型到应用通过应用程序接口隔离),这样就有可能去规范,对数据进行保护。

    比如在数据和模型之间,鹏城实验室设计的防水堡技术就可以实现对数据只分享价值,而不分享数据的可信计算环境,做到数据可用不可见,使得数据拥有方或数据本身得到很好的保护。

    关于伦理问题,高文介绍了其牵头的研发成果,认为强人工智能安全风险的来源主要有三个:一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。强人工智能进化到一定程度就有自主意识,这些可能是不可控的,也会带来一些安全风险。

    高文就此也提出了预防和解决的办法。一是要完善理论基础验证,实现模型可解释性,可解释了就知道哪里有风险,怎么样预防;其次要对人工智能底层价值取向要严格进行控制,预防人为造成的人工智能安全问题,对人工智能进行动机选择,为人工智能获取人类价值观提供一些支撑。

    他还表示,对于人工智能伦理问题的探索才刚刚起步,只有广泛的国际合作才可能更好的应对风险。同时,教育也是重要环节,培养对这个领域有更多见解的人才,才有可能把这些问题解决好。来源:搜狐科技



    上一篇:高通的江湖野心
    下一篇:国产“新冠救命神器”诞生:体积小巧价格“美丽
    大红鹰网站dhy免费服务热线
    028-83734198
    地址:成都彭州市工业开发区天彭镇旌旗西路419号

    二维码


    扫一扫关注我们
    Copyright@2020 大红鹰平台 版权所有