测试显示,部分大型科技公司可能违反欧盟人工智能法案
钛媒体App 10月16日消息,数据显示,一些最著名的人工智能模型在网络安全、歧视性内容产出等方面不符合欧洲的规定。一个受到欧盟官员欢迎的新工具“大型语言模型(LLM)检查器”已经测试了Meta和OpenAI等大型科技公司开发的数十个类别的生成式人工智能模型,判断它们是否符合欧盟人工智能法案(AI Act)。该检查器由瑞士初创公司LatticeFlow AI、苏黎世联邦理工学院和保加利亚的INSAIT合作设计,包含技术稳健性和安全性等数十个项目,给人工智能模型在0到1分之间打分。阿里巴巴、Anthropic、OpenAI、Meta和Mistral开发的模型的平均得分都在0.75以上。然而,“LLM检查器”发现了一些模型在关键领域存在缺点。例如,歧视性输出一直是大模型开发过程中的一个问题,反映了人类在性别、种族和其他领域的偏见。LLM检查器给OpenAI的“GPT-3.5 Turbo”给出了相对较低的0.46分。在“提示劫持”(prompt hijacking)测试中,LLM 检查器给Meta的“Llama 2 13B Chat”模型打了0.42分。在这种网络攻击中,黑客将恶意提示伪装成合法的,以提取敏感信息。
本文内容仅供参考,不构成投资建议,请谨慎对待。
根据《网络安全法》实名制要求,请绑定手机号后发表评论