人工智能行业:人工智能伦理风险与治理研究
健全完善人工智能监管机制,党的二十届三中全会提出,"完善生成式人工智能发展和管理机制""加强网络安全体制建设,建立人工智能安全监管制度”。
加强人工智能治理国际合作。习近平总书记强调:"同各国加强交流和对话,共同促进全球人工智能健康有序安全发展"。
实践问题亟待解决
促进技术发展与保障伦理安全之间的关系日益复杂,平衡各维度矛盾成为实践难题:
技术普及V.S.社会公平。如何更好处理技术快速发展中出现的资源分配不公、部分群体被边缘化等问题?自主决策 V.S.人类控制。如何更好兼顾实现在提升人工智能技术先进性的同时,确保技术受人类控制?
商业利益V.S.公众利益。如何更好地避免商业短期利益凌驾于人类利益之上?全球治理 V.S.区域规则。如何妥善弥合全球人工智能伦理治理的鸿沟?
企业诉求亟待回应
通过调研华为、腾讯、360、京东、快手等国内十余家人工智能代表性企业,总结出企业对人工智能伦理治理优化的三方面共性诉求:基于场景化开展分类监管,应更有效区分不同的应用场景和风险等级。
提升规则、流程的明确性。应更明确“舆论属性和社会动员能力”等概念界定,进一步明确大模型备案和算法备案之间的关系。
强化规则间的协同性。应更好处理个人信息保护、算法公平、数据安全等相关治理工具和规则之间的关系。