中新网北京12月11日电当今世界,新一轮科技革命和产业变革突飞猛进。以人工智能为代表的新兴技术正在快速发展。人类正在进入“人、机、物”立体融合的万物智能互联时代。但人工智能也带来了安全、隐私、公平等问题和挑战。如何实现值得信赖的人工智能?
“有很多标准方法可以确保计算系统的可靠性,例如测试、模拟和良好的软件工程实践,这些都是必要的。同时,形式化方法可以补充这些方法,为可信系统构建标准方法。 ”哥伦比亚大学常务副校长、计算机系教授周益臻10日在2022人工智能合作与治理国际论坛上指出。
哥伦比亚大学常务副校长、计算机科学教授周益臻在2022年人工智能合作与治理国际论坛上发言。
2022年人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办。中国新闻网是联合国开发计划署(UNDP)、联合国教育、科学及文化组织(UNESCO)等国际组织以及国内外学术机构的战略合作伙伴。
周亦真表示,对于某些任务,人工智能系统已经取得了足够好的性能。例如,它们可以部署在我们的街道和家里来识别物体或语音。在围棋和其他游戏中,它甚至可以超越人类的表现。
“人工智能的前景相当广阔。它们会帮助我们开车,它们可以帮助医生更准确地诊断疾病,它们可以帮助法官做出更一致的法庭判决,它们还可以帮助雇主雇用更合适的候选人。”她说。
同时,周亦真指出,人工智能系统也可能是脆弱且不公平的。例如,在停车标志上添加涂鸦会让分类器认为它不是停车标志等。
周亦臻认为,计算系统的可信意味着一组属性,包括可靠性、安全性、隐私性、可用性等。建议网络安全机构可以与统计学家讨论形式化方法、计算机科学、人工智能等。”因为他们多年来一直在处理如何评估模型质量的问题,所以我们可以向统计界学习。” (中新财经)