2025年1月3日,新年伊始,美国联邦贸易委员会(FTC)发布了一篇题为“AI and the Risk of Consumer Harm”(AI 与消费者损害风险)的技术博客,以近期的一些案例和举措为例,梳理了公司在开发、维护、使用和部署基于AI的产品时需要考虑的因素。
FTC关注和监管的范围
作为美国联邦层面的机构,FTC的职责是处理所有经济部门的消费者保护和竞争问题。FTC在博客中指出,其对AI的关注也是从消费者保护和竞争的角度出发的。
FTC指出,由于法律没有对AI豁免,因此部署AI系统和工具的公司有义务遵循包含FTC执行的竞争和消费者保护法规在内的现有法律。目前,FTC已经日益关注到AI可能在商业监控、欺诈和冒充以及非法歧视等方面造成的损害。
在这里,FTC举例涵盖的AI系统和工具包括:客服聊天机器人、教育工具、为社交媒体提供支持的推荐技术、可能将特定消费者标记为安全风险的面部识别技术、决定是否或者以何种条件获得医疗帮助、住所、工作或贷款等的工具。
具体而言,FTC的工作人员可以分析AI工具是否侵犯了人们的隐私,或者是否容易受到使个人数据面临风险的对抗性输入或攻击。而且,FTC还可以审查用于欺诈、操纵或未经同意的图像或危害儿童和他人的生成式AI工具。此外,FTC还关注在高风险环境中做出决策的算法产品,这些高风险环境包括但不限于健康、住房、就业或进入等领域。
FTC强调的风险因素
FTC回顾了一系列近期的案例和举措,强调了公司在开发、维护、使用和部署基于AI的产品时,需要考虑的四大方面因素。
第一,在部署产品之前和之后都采取必要措施防止损害。
FTC在2023年曾指控零售药房Rite Aid在使用面部识别技术(FRT)时未采取合理措施防止对消费者造成伤害,原因是Rite Aid使用的FRT在商店中误将消费者(尤其是女性和有色人种)标记为扒手。
FTC的投诉提到,该公司在部署FRT技术之前没能采取合理的步骤测试、评估、测量、记录或询问其FRT的准确性。进一步,该公司在部署后也未能采取合理措施定期监控或测试技术的准确性,具体包括未“实施任何程序来跟踪面部识别匹配的假阳性率或基于假阳性面部识别匹配所采取的行动。”
对此,FTC强调,提供AI模型的公司需要在部署其工具之前和期间评估和减轻潜在的下游危害,其中包括解决用于做出消费者决策的技术和使用和影响。
第二,采取预防措施,检测、组织和停止与AI相关的冒充、欺诈、儿童性虐待材料和未经同意的私密图像。
2024年4月,FTC发布了一项关于打击冒充政府和企业的规则——考虑到AI生成的深度伪造等技术正在加剧欺诈。FTC指出,虽然生成式AI是新的技术,但上述危害并不新鲜。在向国会提交的《打击在线危害报告》中,FTC讨论了深度伪造的问题。
此外,FTC还发起了一项语音克隆挑战赛,旨在通过检测和阻止未经授权的用户滥用语音克隆软件来促进消费者保护,具体方向包括应用有效的实时检测或监控措施、使用解决方案评估现有内容、防止和遏制基于AI的诈骗和欺诈行为以及利用解决方案构建有力的身份验证或防止上游伤害的防护措施。
第三,避免可能导致人们损失金钱或者使用户面临损害风险的关于AI工具的欺骗性声明。
FTC提及了许多起关于AI产品将帮助人们创业或赚钱的欺骗性声明的案件。2025年9月,FTC发起的“Operation AI Comply”(AI合规行动)打击了五起利用AI欺诈消费者的案件,一个典型的例子是一些公司生成其AI产品能够帮助人们创业或者赚钱:该计划声称其“尖端”人工智能工具将帮助消费者通过开设在线店面快速每月赚取数千美元的被动收入。根据投诉,该计划已诈骗消费者至少 2500 万美元。
第四,默认隐私保护和安全。
生成式 AI 工具需要大量数据输入,其中一些数据可能非常敏感。FTC长期以来一直为企业提供有关确保数据安全和隐私保护的知道,例如已通过了“关于生物识别信息的政策声明”(Policy Statement of the Federal Trade Commission on Biometric Information and Section 5 of the Federal Trade Commission Act)。FTC已对未能遵循该项法律义务的公司发起了诉讼。例如,FTC对亚马逊的语音助手服务Alexa提出投诉,指控该公司默认设置将用户(包括儿童)的语音录音永久保存。FTC表示,亚马逊“误导了Alexa用户关于删除语音录音的能力”,并非法使用这些数据来改善Alexa算法。FTC工作人员还建议公司不应悄悄更改其服务条款。
FTC在结尾处总结,有效缓解AI的这些风险有助于推动其好处的发挥。公司使用AI工具时可能对消费者产生重大影响,因此需要在消费者接触前、过程中和之后解决相关风险。当公司思考如何开发、部署和维护基于AI的系统时,应考虑其可能带来的风险,并采取积极措施保护公众,以防其工具成为未来FTC的案例研究。
参考资料:https://www.ftc.gov/policy/advocacy-research/tech-at-ftc/2025/01/ai-risk-consumer-harm