姿态回应不打这届解说杯:要太早确定名单,自己确定不了
T1选手世界赛夺冠公约 Faker:选一位粉丝一起直播
红蓝方胜率差距最大英雄榜单:剑魔、蝎子、卡莉斯塔前三
HYUNMIN实力带队锋芒毕露成功拿下首局!DRX 1-0 FNC
腾讯研发全新TiG框架:用AI玩王者荣耀 让AI模型学会战略性思考
JackeyLove发布与Creme睁眼挑战:孩子们我做得对吗?
体育资讯10月4日讯 随着AI工具不仅被企业广泛采用,更日益深入普通用户的日常生活乃至情感陪伴领域,监管机构开始重点关注此类技术带来的潜在风险。
美国联邦贸易委员会(FTC)近日针对开发AI伴侣聊天机器人的公司启动大规模调查,要求科技巨头详细说明用户数据处理方式及相关安全措施。
此次调查涉及谷歌、Meta、OpenAI、Snap、xAI和Character.AI等七家企业。FTC特别强调对青少年安全与心理健康的担忧——尽管AI平台本意为提升生产力和提供辅助,但伴侣类机器人因模拟人类情感联结、提供指导甚至演绎浪漫互动而引发争议。这种模式虽对年轻用户具有吸引力,但在缺乏必要安全防护时存在显著风险。
委员会要求这些科技企业详细披露:聊天机器人的构建与监控机制、信息收集方式、现有安全过滤器设置以及不当交互处理方案。调查还将重点关注未成年人数据使用情况,包括企业如何通过用户参与实现盈利。
科技界长期警示AI快速发展需配套安全防护措施,以防止错误信息传播和有害行为。FTC此次监管行动表明,随着技术演进,建立问责机制和保护用户安全隐私已成为当务之急。