真实和人工智能制造的虐待材料之间的界限变得模糊
吉隆坡:联合国儿童基金会儿童保护负责人Saskia Blume表示,随着人工智能的广泛使用,执法部门越来越难以区分真正的儿童性虐待案件和人工智能产生的案件。
她说,在全球范围内,人工智能正在生成似乎更真实的儿童性虐待材料。
她补充说,根据联合国儿童基金会的《破坏性伤害》报告,马来西亚估计有10万名12-17岁的上网儿童在2022年经历过网络儿童性剥削和性虐待。
“受到影响的儿童数量以及产生的材料和视频数量巨大。现在有了人工智能,界限变得模糊了,尤其是当你有儿童性虐待的材料,涉及一个真正的孩子,而那个孩子被用来衍生出越来越多的材料。
“所以,你不知道孩子现在与旧材料相比是否处于严重危险之中,所以执法部门不知所措的风险真的很高。
“执法部门应该使用人工智能来检查马来西亚的10万件此类材料,因为这是巨大的,”她在昨天举行的儿童委员会授权国际研讨会上告诉《星报》。
联合国儿童基金会儿童保护专家Sivaselvi superamaniam表示,行业参与者可以通过帮助发现儿童性剥削材料(CSEM)来发挥作用。
她引用了澳大利亚安全专员采用的“设计安全”主动预防方法,该方法侧重于嵌入安全,她说,开始关注预防是很重要的。
“该行业如何在检测和消除CSEM方面发挥作用?例如,通过设计安全(Safety by Design),科技公司可以在网络危害发生之前,通过预测、发现和消除网络危害,将网络威胁降至最低。
“这意味着在手机的制造阶段,已经有工具可以防止CSEM接触到用户。
“我们需要开始考虑预防措施,因为互联网的运作方式和聊天机器人生成图像的方式太快了。
她补充说:“我们永远跟不上,所以我们需要继续屏蔽(有害)图像,我们需要考虑如何防止这些图像到达用户手中。”
儿童事务专员Farah Nini Dusuki博士说,为了方便而让孩子们接触到电子设备会给他们带来很大的危险。
她说,父母仍然需要就禁忌话题进行沟通,因为他们的孩子很容易被利用。
“我认为马来西亚的孩子非常容易受到伤害,因为缺乏沟通……父母和孩子之间。
“父母对潜伏在网络上的危险,尤其是利用网络的危险,以及监控和防止孩子成为受害者的工具了解多少?”
她补充说:“我认为家长们的意识仍然很低。”
×
相关文章
发表评论