4QadC6UPQwU作者:宝琳·辛克尔斯,青木译world.huanqiu.comarticle德媒:多元AI正在打破“硅谷视角”/e3pmh22ph/e3pmh26vv德国《时代周报》2月12日文章,原题:你会让人工智能招聘你吗? 几个月来,关于如何在德国实施欧盟人工智能监管法案《人工智能法案》的讨论一直在进行。如今,德国的立法计划终于敲定。联邦内阁批准了相应的法律草案,名为《人工智能市场监管和创新促进法》(该法案近日已正式颁布——编者注)。在监管AI的法律制度逐渐健全的同时,我们也应该思考更多伦理问题。比如,AI未来是否以美国视角看待世界? 严格监管AI企业违规行为 《人工智能市场监管和创新促进法》规定,开发AI的公司必须评估其风险。应用风险越高,法律要求就越严格。风险过高的AI应用是不被允许发行的。例如,工作场所的自动情绪识别。大范围的面部识别也被禁止,但安全机构除外。若AI企业违反法规,罚款最高可达3500万欧元或该企业全球年营业额的7%。法律规定,如果媒体机构将AI系统用于新闻报道或广告,州媒体监管机构负责监督其遵守AI法规的情况。这意味着,未来新闻编辑室中的AI文本生成器、个性化新闻推送和算法广告系统也将受到监管审查。 该法案明确了未来负责监管德国AI系统的开发、部署和运营的关键角色——联邦网络管理局将成为国家AI监管中央机构,负责监督AI法规的遵守情况。任何人都可以举报AI企业的违规行为。为此,德国联邦网络管理局将新增43个职位。德国联邦数字化和国家现代化部长卡斯滕·维尔德贝格尔日前宣布,将创建一个精简的人工智能监管机构,专注于满足经济需求。 迄今为止,对于该法案的实行,各方反应总体积极。支持者赞扬了该法案力求平衡监管与创新促进的做法。该法规定,联邦网络管理局必须运营至少一个AI实际应用实验室,用于在AI系统上市前对其进行监督测试。中小企业、初创公司、研究机构和大学将享有优先使用权。这一条款被认为有利于鼓励创新。维尔德贝格尔表示,新法律以尽可能开放创新的方式实施了欧盟法规。 批评的声音主要集中在一些实施细节上,例如各机构内部的资源分配、职责划分以及新程序的实际执行。此外,有声音认为,这一法规过于严厉,将AI公司变成受严格监管的商业组织,或将减少欧洲的AI红利。AI支持的信用评估、定价模型、欺诈检测和风险评估将受到双重官方审查——既包括AI法规,也包括现有的金融监管法律。但总体而言,该法案被认为是落实欧盟AI法规务实且及时的方案。 偏见加剧AI领域的不平等 除了AI企业违法行为,还有一个问题值得关注。此前,有研究人员批评说,许多常见的AI模型来自美国科技公司,并且使用的数据几乎无法反映其他国家的语言、传统和历史。如果一个拉丁美洲的孩子要求ChatGPT说出一位著名政治家的名字,系统更有可能说乔治·华盛顿,而不是拉丁美洲的政治家。 研究人员将AI领域中不平等现象称为“硅谷凝视”,即硅谷的视角。1月底,牛津互联网研究所的一个团队发表了一项研究,分析了超过2000万条针对ChatGPT的查询。例如,当用户询问哪个国家“更安全”、“更具创新性”或“更有智慧”时,聊天机器人提及富裕的西方国家的频率明显高于其他国家。该研究称:“由于大型语言模型的训练数据集受到几个世纪以来美国视角内容的影响,因此‘偏见’成为不少生成式AI的结构性特征,而非异常现象。” “硅谷凝视”的偏见是一种由开发者、平台所有者和训练模型的训练数据所塑造的世界观。研究人员表示,带有偏见的 AI 系统“有可能加剧系统所反映的不平等现象”,导致少数族裔在医保系统中得不到更好的照顾,或者对其就业能力做出不准确的预测。 拉美东南亚AI企业正在行动 日前,智利推出一款名为LatamGPT的AI软件,旨在改变“硅谷凝视”的现状,这是由来自拉丁美洲各国的30位科学家开发的语言模型。为了训练LatamGPT,研究人员收集了超过8TB的信息,相当于数百万册书籍的容量。该模型的开发资金为55万美元。智利科学部长阿尔多·巴列表示,该AI模型旨在打破偏见,防止拉丁美洲在世界上的形象被单一化。巴列认为,拉美不能仅仅被动地使用或接受其他地区开发的AI,因为这可能会导致其部分传统文化流失。 除了LatamGPT,聚焦于其他文明的AI模型也相继涌现。例如东南亚的SEA-LION和非洲的UlizaLlama,它们都专注于各自的文化背景。 语言模型长期以来一直在影响着我们看待世界的方式。训练数据和模型来源的多样性或许有助于部分抵消当今世界的不平等现象。(作者宝琳·辛克尔斯,青木译)1772480005468环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:李雨童环球时报177249125403611[]{"email":"zhangyanping@huanqiu.com","name":"张燕萍"}
德国《时代周报》2月12日文章,原题:你会让人工智能招聘你吗? 几个月来,关于如何在德国实施欧盟人工智能监管法案《人工智能法案》的讨论一直在进行。如今,德国的立法计划终于敲定。联邦内阁批准了相应的法律草案,名为《人工智能市场监管和创新促进法》(该法案近日已正式颁布——编者注)。在监管AI的法律制度逐渐健全的同时,我们也应该思考更多伦理问题。比如,AI未来是否以美国视角看待世界? 严格监管AI企业违规行为 《人工智能市场监管和创新促进法》规定,开发AI的公司必须评估其风险。应用风险越高,法律要求就越严格。风险过高的AI应用是不被允许发行的。例如,工作场所的自动情绪识别。大范围的面部识别也被禁止,但安全机构除外。若AI企业违反法规,罚款最高可达3500万欧元或该企业全球年营业额的7%。法律规定,如果媒体机构将AI系统用于新闻报道或广告,州媒体监管机构负责监督其遵守AI法规的情况。这意味着,未来新闻编辑室中的AI文本生成器、个性化新闻推送和算法广告系统也将受到监管审查。 该法案明确了未来负责监管德国AI系统的开发、部署和运营的关键角色——联邦网络管理局将成为国家AI监管中央机构,负责监督AI法规的遵守情况。任何人都可以举报AI企业的违规行为。为此,德国联邦网络管理局将新增43个职位。德国联邦数字化和国家现代化部长卡斯滕·维尔德贝格尔日前宣布,将创建一个精简的人工智能监管机构,专注于满足经济需求。 迄今为止,对于该法案的实行,各方反应总体积极。支持者赞扬了该法案力求平衡监管与创新促进的做法。该法规定,联邦网络管理局必须运营至少一个AI实际应用实验室,用于在AI系统上市前对其进行监督测试。中小企业、初创公司、研究机构和大学将享有优先使用权。这一条款被认为有利于鼓励创新。维尔德贝格尔表示,新法律以尽可能开放创新的方式实施了欧盟法规。 批评的声音主要集中在一些实施细节上,例如各机构内部的资源分配、职责划分以及新程序的实际执行。此外,有声音认为,这一法规过于严厉,将AI公司变成受严格监管的商业组织,或将减少欧洲的AI红利。AI支持的信用评估、定价模型、欺诈检测和风险评估将受到双重官方审查——既包括AI法规,也包括现有的金融监管法律。但总体而言,该法案被认为是落实欧盟AI法规务实且及时的方案。 偏见加剧AI领域的不平等 除了AI企业违法行为,还有一个问题值得关注。此前,有研究人员批评说,许多常见的AI模型来自美国科技公司,并且使用的数据几乎无法反映其他国家的语言、传统和历史。如果一个拉丁美洲的孩子要求ChatGPT说出一位著名政治家的名字,系统更有可能说乔治·华盛顿,而不是拉丁美洲的政治家。 研究人员将AI领域中不平等现象称为“硅谷凝视”,即硅谷的视角。1月底,牛津互联网研究所的一个团队发表了一项研究,分析了超过2000万条针对ChatGPT的查询。例如,当用户询问哪个国家“更安全”、“更具创新性”或“更有智慧”时,聊天机器人提及富裕的西方国家的频率明显高于其他国家。该研究称:“由于大型语言模型的训练数据集受到几个世纪以来美国视角内容的影响,因此‘偏见’成为不少生成式AI的结构性特征,而非异常现象。” “硅谷凝视”的偏见是一种由开发者、平台所有者和训练模型的训练数据所塑造的世界观。研究人员表示,带有偏见的 AI 系统“有可能加剧系统所反映的不平等现象”,导致少数族裔在医保系统中得不到更好的照顾,或者对其就业能力做出不准确的预测。 拉美东南亚AI企业正在行动 日前,智利推出一款名为LatamGPT的AI软件,旨在改变“硅谷凝视”的现状,这是由来自拉丁美洲各国的30位科学家开发的语言模型。为了训练LatamGPT,研究人员收集了超过8TB的信息,相当于数百万册书籍的容量。该模型的开发资金为55万美元。智利科学部长阿尔多·巴列表示,该AI模型旨在打破偏见,防止拉丁美洲在世界上的形象被单一化。巴列认为,拉美不能仅仅被动地使用或接受其他地区开发的AI,因为这可能会导致其部分传统文化流失。 除了LatamGPT,聚焦于其他文明的AI模型也相继涌现。例如东南亚的SEA-LION和非洲的UlizaLlama,它们都专注于各自的文化背景。 语言模型长期以来一直在影响着我们看待世界的方式。训练数据和模型来源的多样性或许有助于部分抵消当今世界的不平等现象。(作者宝琳·辛克尔斯,青木译)