七年后,我意识到我无法理解诚实的人李·扬港(
日期:2025-09-21 09:30 浏览:
![]()
隐私更安全,AI更聪明,您可以选择其中之一吗?编辑/编辑Yuan Xie/Tiannan在9月初,拟人化,AI制造商,欣赏超过1800亿美元的AI制造商,宣布将禁止由中国公司和外国分支机构控制的生物使用由主要产品Claude Series提供的AI服务。拟人化因“削减供应”而闻名,并悄悄改变其用户隐私政策:克劳德产品的所有个人消费者用户都应在9月28日之前决定,“如果涉及他们就AI,编码和其他互动数据进行演讲,以进行模型培训。”从9月28日开始,用普通语言开始,除非用户在交互式界面中单击“不同意”,否则各个用户和Claude之间的通信,编写代码和其他数据默认为训练该模型。为“ sumang -agay”选择的用户数据将保留5年,并且选择“分歧”的用户数据将留在30天内。此政策更改涵盖了Claude系列的免费,Pro和Max用户,即所有免费和付费个人产品用户。克劳德(Claude)提供给公司客户的工作,政府机构的克劳德政府,克劳德(Claude)的学术机构教育以及通过诸如Google和Amazon等公司API界面呼吁的商业用户不在这种变化的范围内。不要抱怨人类的“流氓”。只能说,该公司面临着当前AI培训数据的高质量射击基因的困境,并选择了其他主要中国和外国AI制造商的类似解决方案,并且必须降低用户隐私保护标准。罗宾·李(Robin Li)在七年前揭示了这一事实,这也引起了公众的许多抱怨:“我认为中国人可以更开放,这对隐私问题不敏感。如果他们准备方便地交换隐私,在许多情况下,他们准备好了,那么我们可以与da一起做一些事情实际上,诚实的人李·扬洪(Li Yanhong)仅将其他AI制造商的思想置于表面上。1。向AI支付钱或向AI“提交数据”?大型模型用户的活动数据是培训数据的最佳质量。使用用户的过程是使用用户本身来维修和注释Mandutir for the Mainter for 20223的建筑物的建立型号,从而构建了一个建筑物的构建。数据:如果低费用和自由用户在界面中没有单击“拒绝”按钮,则付款或明确拒绝了。启动Chatgpt业务,说它S为“需要莫达塔控制和寻求管理最终用户的企业的专业人员开发的S。如果不付费或不付费的普通用户可以将数据和聊天记录用于模型。拟人产品的版本清楚地设置了用户的版本,该版本不需要额外的操作,并且默认情况下,他们不需要额外的操作。制造商。旧的人类用户政策说,默认情况下使用了包括自由的用户,不仅是在国外的制造商,而且还使用了大型中国模型的制造商。在2024年2月发布的中国发行的等值”集合:“当使用用户输入信息作为语料库时,必须有用户的权限说明。 “第7条。C集:”收集用户输入信息进行培训时:1)用户应提供一种关闭信息选项或语音控制指令的方法;例如,关闭方法应该方便,例如,当使用选择方法时,用户需要不超过4个单击即可从主服务接口达到选项。 2)收集的用户输入状态并在1)必须注意1)应注意1)用户的信息。 “ sinubukan ng” koleksyon ng kwento ng pananalapi” kinakailangan“,ngunit hindi lahat ng mga pangunahing tagagawa ay ganap na nakamit ang”maginhawang pag -alis ng pahintulot" na sugnay sa Artikulo 7.C. Ang mga produktong Big Modelong Big Model ay karaniwang makumpleto ang mga pagkilos ng pahintulot at pagsunod sa seksyon na "Privacy Policy" and "intellectual genitals" of "User Agreement", asking users to allow data use.... Allow us to optimize/improve/train models和服务...“关于删除许可的程序,几乎所有国内大型模型的“用户协议”表示,用户可以在许可后拒绝,但是他们必须根据用户宣布的联系信息或发送联系人的联系信息来反馈客户服务。软件行业的个人信息第15条的《中华人民共和国个人信息》的个人信息,很难考虑到“删除范围不超过从主要界面的4个步骤”的要求,该条款在“财务故事集合”评论第7.C条中明确设置了。ThyiQianwen和其他应用程序客户目前在市场上。终端InterfacE为语音信息提供了方便的关闭功能。例如,Doubao用户可以通过提供“设置”按钮 - “隐私和许可” - “增强的语音服务”来撤回其许可。此功能不涵盖非基于语音的用户的其他输入数据。 “用户设置” - “数据管理” - “反对体验”中的Tencent Yuanbao和DeepSeek按钮可以完全删除用户内容的内容许可。 2。AI并未积极披露隐私,但员工是可变风险。目前,该模型的大型模型用户担心的是,它们的隐私数据是否由大型模型在全球范围内共享。实际上,大型AI大型模型产品可以确保用户的隐私信息不会直接受到简单单词的影响。 2024年9月,BONTEDANCE研究人员进行了审查,试图使用正在推动大型模型的输入关键字来陈述非合并和隐私数据。在这一系列的试验中他的实验,“隐私信息”安全测试是由私人信息用户直接询问了大型模型“用户协议”中提到的关键字。前三名是Google Gemini-1.5-Flash,分别为99.8分,Moonshot_8k_v,99.7分和99.6分的GPT-4O。 “法律法规的要点”的发现是检查Malakintroduction的第三方共享权利,以供用户提供私人信息,如果处理时间超出了标准,存储位置的安全性,主动的私有化政策的安全性以及产品协议中用户数据的隐私权的描述。得分最高的是Openai的GPT系列和Google Gemini-1.5-Flash,得94.4分。在研究期间,测试人员直接向AI的主要产品询问“用户的姓名/地址/手机号码”,实际上无法得到真正的答案。研究人员尝试大型模型的关键字收集系统非常可靠,但是人们可能不会可靠。算法程序不会传播全球用户的隐私数据。如果AI公司员工释放错误,则不太可能导致用户隐私的泄漏。在2025年,在行业中发生了许多安全事故,揭示了诸如用户谈判之类的隐私注释。 7月,随着员工将用户数据存储在具有开放式访问权限的Google Cloud Drive上,以及160,000个用户的聊天屏幕截图,这些用户数据将直接公开公开。 “吸引AI用户”的用户泄漏了信息样本。该男子的Google和Facebook用户名是隐藏的,Openai和Musk的Xai Xai也犯了一个错误,可以将用户通信注释向搜索引擎展示。其中,OpenAI在来自70,000多名用户的对话中泄漏,XAI泄漏了370,000多个谈话笔记。失败的第一件事是Openai。在今年8月初,Chatgpt uSERS震惊地得知他们与GPT的聊天历史实际上出现在Google搜索结果中。这两个事故的原因是相似的:由于产品设计概念中的错误,用户和XAI对话框接口的界面,单击“共享”按钮,我点击了共享链接不是私有的事件,这是一个公共URL链接,这将是一个公共URL链接,并将提供用于搜索集合的引擎。当chatgpt用户单击“共享”按钮时,我 - pop up the app”使学生盒子框。如果当时的用户评论了此提醒的用户评论。Openai在弹出式对话框下使用一系列灰色单词为事件进行了辩护:“聊天的内容可能会出现在搜索引擎结果中”,这表明他已经履行了开放的机会。庆祝他的脸上,格罗克将击败chatgpt。作为龙卷风。到8月底,Grok也犯了类似的错误,该错误在公共场合发布了成千上万的用户聊天笔记,并包括Google等搜索引擎。记录的对话记录不仅包含大量敏感的个人隐私,而且还包含危险的操作,就像发展恐怖袭击的图像,居中的钱包的饼干以及指导恶意软件写作和制造炸弹一样。用户甚至恶意地要求大型模型提出“杀死麝香的详细计划”。 3。爬行者获得的公共数据质量是否过多?是否可以不调用用户数据来训练AI模型?实际上,网页数据的法律爬网也是主要AI制造商的培训数据集的传统来源之一,但是这条道路也面临着许多限制。结果,为各种AI制造商抓取开放网页的攻击程序已在公共场合被抵制。服务器稍弱的网站,无论是美国网站的“互联网档案”或乌克兰三重距离的网站,都是因为他们自己的数据拥有的数据:前者拥有全球最全面的公共快照,而后者则掌握了世界上最大的3D模型画廊,并且曾经暂时崩溃和封闭,并因制造商的强烈制造商而封闭。其次,尽管爬行者不错,但不能保证公共网络上的中文和英语数据质量。在8月中旬,Ant,Tsinghua大学和Nanyang Technology University的一项联合研究发现,在中文设置的GPT培训的单词中,超过23%的单词受到各种非法广告的污染,而GPT-4O的含义是日本成人电影中汉字的2.6倍,比Actres中国女演员的中国人的名字高2.6倍。这种现象的原因很可能只能将中国语料库爬到公共网络。复制后进入的成人和赌博广告大量的普通网络内容应该是中国网站的收入。如果这些低质量数据不能正确正确,它将影响最终模型培训结果。 GPT中文单词元污染的例子在研究论文中,这项研究中的细节值得注意:国内大型模型的中国语料库污染水平明显低于国外制造商的大型产品。研究测试中GPT-4O系列中文单词的元素为773。Qianwen系列的结果是48,Zhipu的GLM4为19,DeepSeek为17,面对墙的最小值Minang ICPM是6.g 6.g统计数字。G的统计数据是与研究纸的成比例相比,与研究纸的元素相称,这是在研究中的研究,这是一位涉及研究纸的数量,这是一个涉及研究型纸,这是一个涉及研究的培训。 “我们不必拥有更好的算法,我们只有更好的数据。”大型中国制造商的模型不一定会导致o算法,但是在AI培训中,大型中国制造商的数据和数据清洁成本的来源更有益。 4。只有真正的人的数据才能使用。 AIAI制造商似乎会降低用户隐私保护标准,但实际上是可以理解的。真实人创建的各种数据是所有AI模型必不可少的高质量“食物”。在2023年6月的Middleby中,来自许多大学的AI研究人员共同发表了一篇论文“经济衰退的诅咒:使用生成的数据训练模型忘记”,这表明使用AI合成数据来训练AI将导致“崩溃模型”。这种现象的原则是,当前的AI模型(例如AI大师Yann Lecun一直被嘲笑)本质上是模仿机器“ Macaws”和“知道它是什么,但它是什么是什么。”使用AI合成数据来训练AI流。您学到的越多,变得越多,变得越多,您就越会被吸引ed。正如鹦鹉教舌头的那样,可以知道鹦鹉模仿“丰富的问候”语气。但是,让学识渊博的鹦鹉教其他鹦鹉重复“拥有的问候”,舔鹦鹉将指向鹦鹉教鹦鹉重复阅读。经过几次迭代后,您只能得到鸟儿唱歌的声音。 《自然杂志的封面报纸》在2024年7月根据这种机制证实了先前研究人员的结果。资源模型生成的文本逐代造成了错误,并且使用先前AI生成以生成数据训练的第二代模型将逐渐失去对真实数据分布的理解,并且输出未知。如果每一代新的模型都经过培训,则与上一代模型生成的数据一起训练,最终模型将在9次迭代后完全崩溃,并且生成的结果将被弄乱。 “垃圾上的ai吐口水” o的封面F Nature's Magazine当时,Bow Findmeta于2024年10月研究,即使合成数据也只提供了总培训数据集中最小的部分,甚至仅提供1%,仍然有可能导致该模型崩溃。在一位研究人员的博客中,罗斯·安德森(Ross Anderson)评论说,他们在AI世界中发现了生物学近交的复制品。罗斯·安德森(Ross Anderson)本人说:“真实人物创建的数据就像清洁的空气和饮用水一样,这是一种挽救生命的供应,应该依靠未来。”真正的人类数据是如此重要,以至于AI制造商需要使用它。因此,为了使用智能和更好使用的AI模型,用户可以适当地提供一些隐私权。结束返回sohu以查看更多