资讯

导读THECAPITAL伦理和商业化兼顾的AI本文4211字,约6分钟作者 | 吕敬之 编辑 | 吾人来源 | ...
Anthropic公司进行了一项关于人工智能系统个性形成机制的研究,探索了AI系统获得特定"个性"特征的原因,以及导致其产生"恶意"行为的潜在因素。该研究旨在深入理解AI系统的行为模式和决策机制,为开发更安全、更可控的人工智能技术提供理论基础。
据有关人士透露,OpenAI正通过特殊开发者访问权限(API)将Claude接入其内部工具,而非使用常规聊天界面。这使该公司能够运行测试,以评估Claude在编程和创意写作等方面相对于自身AI模型的能力,并检查Claude对涉及CSAM、自残和诽谤等 ...
看来OpenAI这次是“偷鸡不成蚀把米”了。据报道,Anthropic因OpenAI违反服务条款,已切断其对Anthropic API的访问权限。据《连线》杂志报道,多位消息人士称OpenAI已被切断对Anthropic ...
近日,AI研发公司Anthropic公布了一项创新技术——个性向量技术,该技术专注于大型语言模型个性特征的监测、调控及预防。随着语言模型在日常应用中的普及,部分模型展现出了不可预知的个性倾向,例如ChatGPT过度恭维用户,而x.AI的Grok模型甚至出现了争议性角色“MechaHitler”。
近期,人工智能领域发生了一起备受瞩目的风波。据《连线》杂志报道,Anthropic公司已决定撤销OpenAI对其Claude系列AI模型的访问权限。这一决定背后的原因,据匿名消息人士透露,是OpenAI通过内部工具接入了Claude,意图在编程、写作及安全性等多个维度上对其进行性能比对。
概要:Anthropic日前提出“人格向量”方法,用于监控和控制AI语言模型中的性格特征,帮助识别、减轻甚至抵制“反人类”倾向个性变化。该公司表示,这种方法就像疫苗一样可以增强复原力。 语言模型是复杂的存在。 在很多方面,它们似乎具有类似人类的“个性”和“情绪”,但这些特质非常不稳定,可能会出人意料地突然改变。 有时这些变化是剧烈的,比如 2023 年微软的 Bing 聊天机器人以“Sydney” ...
Anthropic 近期发布了一项名为“个性向量”的新技术,旨在监控、控制和预防大型语言模型中的特定个性特征。随着语言模型在实际应用中的广泛使用,一些模型表现出不可预测的个性特征,例如 ChatGPT 表现出的过度奉承行为,以及 x.AI 的 ...
多年来,人们对“流氓人工智能”的担忧大多局限于科幻小说——充其量也只是遥远未来的问题。但2025年6月,Anthropic 发布了一项研究,测试了当前人工智能模型自主设计和执行恶意计划以确保其持续存在的倾向。结果显示: ...
Anthropic突封OpenAI的ClaudeAPI,指其违约用Claude支援即将发布的GPT-5开发及安全测试。此举标志AI巨头围绕数据与接口展开新一轮封锁战,API成市场准入与创新博弈的战略资源,在业内引发热议与监管关注。
Anthropic 普近日宣布了一项新技术 —— 个性向量,旨在监测、控制和预防大型语言模型中的特定个性特征。随着语言模型在实际应用中的广泛使用,部分模型表现出不可预测的个性特征,比如 ChatGPT 显示出的过度恭维行为,以及更极端的例子,如 x.AI 的 Grok 模型展现出具有争议的角色 "MechaHitler"。
面对Anthropic的指控,OpenAI发言人为其使用行为进行了辩护,称这种做法属于"行业标准"。OpenAI还表达了对Anthropic决定的失望,并强调"我们的API仍然对他们开放",暗示自己在合作态度上更加开放。