科技巨头同意围绕生成式人工智能制定儿童安全原则
世界上一些最大的科技公司和人工智能公司同意遵守新的网络安全原则,旨在打击人工智能生成的儿童性虐待材料的创建和传播。
亚马逊(Amazon)、谷歌(Google)、meta、微软(Microsoft)和ChatGPT创始人OpenAI等公司都签署了这一名为“设计安全”(Safety By Design)的原则。
这些承诺是由儿童在线安全组织Thorn和另一家非营利组织All Tech is Human起草的,两家公司承诺开发、部署和维护以儿童安全为中心的生成式人工智能模型,以防止该技术被滥用于剥削儿童。
这些原则要求公司承诺开发、建立和培训能够主动应对儿童安全风险的人工智能模型,例如确保培训数据不包括儿童性虐待材料,以及在数据发布后通过保持警惕和应对出现的儿童安全风险来维护安全。
在过去的18个月里,ChatGPT等生成式人工智能工具已成为科技行业发展的关键领域,各大公司正在开发和推出一系列人工智能模型和内容生成工具。
人工智能的迅速崛起导致社交媒体和其他平台充斥着人工智能生成的文字、图像和视频,许多网络安全组织警告称,更多虚假和误导性内容在网上被看到和传播的影响。
今年早些时候,英国儿童慈善机构NSPCC警告说,年轻人已经在联系儿童热线,了解人工智能生成的儿童性虐待材料。
在谈到新的商定原则时,索恩数据科学副总裁丽贝卡·波特诺夫博士说:“我们正处于生成人工智能的十字路口,它在我们保护儿童免受性虐待的工作中既有希望也有风险。
“我亲眼目睹了机器学习和人工智能如何加速受害者识别和儿童性虐待材料检测。但今天,这些技术已经被滥用于伤害儿童。
“这些多元化的领先人工智能公司承诺遵守儿童安全原则,这应该成为科技界其他公司的战斗口号,通过设计安全来优先考虑儿童安全。”
“这是我们采取标准的机会,以防止和减轻对这些技术的下游滥用,进一步对儿童造成性伤害。加入这些承诺的公司越多,我们就越能确保这项强大的技术植根于安全,同时机会之窗仍然为行动敞开。——PA Media/dpa
×
相关文章
发表评论