欧盟设定为倾斜AI平衡,支持公民权利
欧洲联盟(欧盟)在欧洲人工智能(AI)关于欧洲人工智能(AI)规定的泄露草案中,计划建立高风险AI系统的中央数据库。
在Google Drive上发布的草案还列出了欧盟禁止的AI的几种用途。旨在保护欧盟公民权利的计划具有深远的影响,影响影响杀戮的决策的系统。
法规草案禁止使用操纵人类行为的AI系统,用于不分青红皂白监督和社会评分的人。该文件规定,侵权的处罚将受到高达2000万欧元的行政罚款,或在前一财政年度的罪犯全球全球营业额的4%。
文件中规定涵盖AI的应用。根据文件草案,需要验证AI系统提供商,并且需要提供有关用于验证其系统的数据模型,算法和测试数据集的信息。
该文件详细说明了许多AI实现被视为高风险,涵盖了AI在优先考虑紧急先响应服务的优先考虑,将人员分配给教育和职业培训机构,以及许多用于犯罪检测系统和使用的系统通过法官。其它领域被确定为高风险包括招聘,人民信誉和史式风险评估。
该文件草案规定了欧盟市场中可用的AI规则或以其他方式影响欧盟公民(以人为本),以便他们可以相信该技术以安全可靠的方式使用凭借法律,包括基本权利的尊重“。
为了最大限度地减少偏见,欧盟文件指出,培训和测试数据集应具有足够的相关性,代表性,无误差,鉴于预期目的,并且应具有适当的统计特性。
该法规将要求AI系统供应商提供欧盟监管机构,其中包含有关概念设计的信息和他们使用的算法。欧盟希望AI公司提供有关与算法相关的设计选择和假设的信息。
欧盟还似乎正在寻找高风险AI系统的供应商,以提供有关验证AI系统功能的详细信息。这需要包括其能力和限制,预期输入和输出以及预期的精度/错误余量的描述。
在草案中,欧盟还希望高风险AI系统提供商提供有关系统局限性的信息,包括已知的偏见,可预见的意外后果以及安全和基本权利的风险来源。
Twitter上的一个评论员写道:“只有在有条件的逻辑上,oi的定义似乎是疯狂的广泛,覆盖软件,如对话机器人或合同生成向导。”