近期,LinkedIn因涉嫌将私人信息(私信)和用户数据共享给第三方用于人工智能训练,正面临一起集体诉讼。此次诉讼揭示了平台在用户数据隐私方面存在的争议和潜在的法律风险。
诉讼文件指出,LinkedIn在2024年8月悄悄引入一项新的隐私设置,将用户数据默认共享给第三方用于AI训练。同时,LinkedIn在其常见问题解答(FAQ)部分加入相关条款,表示用户可以选择退出数据共享,但这一选择不会影响已经用于AI训练的数据。
LinkedIn违反了与用户之间的隐私协议,且未提前告知用户这一重大变化。诉讼文件进一步指控称,LinkedIn的行为表明其试图减少公众对隐私政策调整的监督,以规避潜在的法律责任,违反了美国《存储通信法》,需要向每一位受影响的用户赔偿1000美元。
此外,由于涉嫌违反加州不正当竞争法和合同违约,LinkedIn还可能面临未明确具体金额的赔偿要求。值得一提的是,LinkedIn发言人已经否认了上述指控,称其为“毫无依据的错误指控”。
从诉讼文件来看,LinkedIn的隐私政策更新是本次诉讼的最大争议点。虽然该平台提供了选择退出数据共享的选项,但用户群体指出,LinkedIn在收集数据之前并未充分告知用户相关变更,尤其是对于使用InMail服务的Premium用户来说,其私人消息和个人数据可能在未经过用户授权的情况下被共享给第三方用于AI训练。
随着人工智能技术的迅猛发展,如何在创新与数据隐私之间找到平衡点,成为行业迫切需要解决的问题。LinkedIn因默认将用户数据用于AI训练遭到起诉一事凸显出社交媒体平台在处理用户隐私和数据时面临的法律和道德挑战。未来,类似案件的裁决可能会对社交媒体行业的数据隐私政策和法律框架产生重大影响。
在训练人工智能大模型过程中,必须全面考虑众多关键性问题。首要关注的是用户隐私与数据保护的合规性问题。人工智能大模型训练中,用户隐私保护至关重要,企业有责任确保其依赖用户数据构建的大模型遵守相关法律法规。
全球各地一直强调用户明确同意和数据最小化的重要性。尽管不同国家的法律存在差别,但都明确提出要加强对用户隐私保护。然而,实际操作中,人工智能企业经常无法完全遵循合规性原则收集和使用用户数据,导致其面临法律和伦理上的安全风险。
其次,必须将跨境数据传输及其合规性挑战纳入考虑范围。人工智能技术的全球性应用引发了跨境数据流动合规性的问题。鉴于不同国家间数据监管政策的差异性,企业必须遵循多样化的法规体系。
目前,全球范围内主要的隐私保护法规包括通用数据保护条例(GDPR)、加州消费者隐私法案(CCPA)以及《中华人民共和国个人信息保护法》等。企业需构建跨境数据管理架构,组建合规性专业团队,并对数据流动的合规性进行持续监控。
继而需要考虑数据来源的合法性及授权问题。人工智能大模型训练合规性面临的挑战之一,即数据来源的合法性问题。公开数据集、第三方供应商提供的数据,以及用户生成的内容均可能成为数据来源。然而,授权问题常被忽视,从而引发法律风险。因此,企业必须强化与数据供应商之间的合同关系,确保数据来源的合法授权。
人工智能大模型训练过程中,隐私保护、跨境数据流动以及数据来源的合法性等合规性挑战至关重要,不容忽视。企业必须加强在法律框架、技术手段和管理流程方面的投入,以确保数据的合法性与合规性。只有在满足合规要求的基础上,人工智能技术及其大模型训练才能实现可持续发展。
下一篇:该文章已是最后的一篇