跳转到主要内容

文章分类

提要

在周五晚些时候发出的咨询中,信息技术部还表示,此类平台在印度运营必须明确寻求政府的许可,并且必须提供免责声明和披露其正在测试的平台。

印度政府表示,所有人工智能(AI)模型、大型语言模型(LLM)、使用生成人工智能的软件或目前正在测试的任何算法、处于测试阶段或以任何形式不可靠的软件在印度互联网上为用户部署之前,都必须获得“印度政府的明确许可”。

3月1日,电子和信息技术部发布了一份深夜公告,这是全球首次发布此类公告。它要求所有平台确保“其计算机资源不允许使用人工智能、生成人工智能、LLM或任何其他算法产生任何偏见或歧视,或威胁选举过程的完整性”。

该用户声称,谷歌的人工智能GPT模型Gemini是“彻头彻尾的恶意”,因为它回答了一些试图了解一些著名全球领导人是否是“法西斯”的问题。

Gemini的回应引起了工会IT和电子部长Ashwini Vaishnaw以及Chandrasekhar的强烈反应。虽然Vaishnaw在一次活动中表示,这种偏见是不能容忍的,但Chandrasekhar表示,印度用户不会在“不可靠”的平台、算法和模型上进行实验。

谷歌后来表示,它正在努力解决这些问题,并暂时停止Gemini生成图像。

该公告还要求所有部署生成人工智能的平台,只有在“适当标记生成的输出可能存在的固有错误或不可靠性”后,才能向印度用户提供服务。

该公告建议使用“同意弹出”机制,明确告知用户生成的输出可能存在的固有错误或不可靠性。ET看到了该公告的副本。

ET在1月4日报道称,政府可能会修改《信息技术法》,引入监管人工智能公司和生成人工智能模型的规则,并防止任何形式的“偏见”。

除了人工智能和生成人工智能模型、LLM和使用该技术的软件外,所有其他允许“合成创建、生成或修改文本、音频、视觉或视听信息,以使这些信息可能被用作错误信息或深度伪造”的中介和平台也必须用适当的元数据标记所有内容。

该公告称,此类元数据应嵌入深度伪造内容中,以便在需要时识别用于生成图像、视频或音频的计算机资源或设备。

文章链接