
人工智能(AI)數據竊取爭議再度升溫。美國人工智能公司Anthropic指控,中國DeepSeek、Moonshot AI及MiniMax利用超過2.4萬個假帳號,向其Claude模型發出逾1,600萬次提示(prompt),然後從Claude的回覆過程中抽取數據,用作訓練並提升自家產品質素。 Anthropic昨(23日)在網誌中披露,這三家中國公司對其Claude模型進行「蒸餾」(Distillation)操作,從回覆獲取關鍵數據,只是操作規模不一,MiniMax的互動次數最高,超過1,300萬次;Moonshot AI超過340萬次;而近期備受矚目的DeepSeek也約有15萬次 。 所謂「蒸餾」技術,是指利用較強模型的回覆,訓練較低階模型。Anthropic指出,這項技術能夠讓企業開發自家產品的精簡版本,但其他公司未經許可,大規模使用競爭對手輸出,或可在「極短時間、極低成本」下建立具競爭力的產品,變相繞過高昂且耗時的基礎研發。 研究敏感議題回應 疑涉規避審查 值得注意的是,Anthropic的指控不僅限於技術層面。聲明指,公司已識別出部份DeepSeek 的開發人員,專門研究Claude在處理涉及異見人士、威權體制等敏感議題時的邏輯與回應方式 。Anthropic認為,這些做法極可能是為了訓練其模型,在面對符合中國官方審查標準的話題時,能夠更有效地轉移或規避相關討論 。 另外,DeepSeek也曾要求Claude披露其生成回答時的全部步驟,這些信息對於強化AI的推理能力至關重要。DeepSeek在一篇去年9月更新的V3模型研究論文承認,只使用了普通網頁與電子書,未納入任何合成數據,這些網頁包含「大量由OpenAI模型生成的答案」,其基礎模型可能透過引用這些網頁,間接從其他強大模型中獲取知識。 作為Anthropic的競爭對手,OpenAI較早前曾向美國眾議院議員提交備忘錄,指控 DeepSeek使用「蒸餾」手法,模仿OpenAI的產品。 Anthropic警告,中國相關行為已觸動美國國安警鐘,對美國模型進行「蒸餾」的外國實驗室,未來或將未受保護的AI能力導入軍事、情報及監控體系。DeepSeek、Moonshot AI 及 MiniMax 均未就相關指控作出回應 。
Kimi K2.5: Как научить нейросеть не бояться параллельности
Moonshot AI выкатили K2.5. Пресс-релиз трубит про «самую мощную open-source модель», но я бы хотел поговорить о другом — о том, что они сделали с агентами. Начну с конца. Там есть график, который стоит тысячи слов. Ось X — сложность задачи. Ось Y — время выполнения. Две линии: одиночный агент и рой агентов. Одиночный агент карабкается вверх линейно. Рой держится почти горизонтально. На сложных задачах разрыв — в четыре с половиной раза. Параллельные агенты обсуждают давно, но тут впервые показали, как этому научить модель, а не прописывать логику декомпозиции вручную. Также, выдали доступ к этим агентам по ценам, похожим на ChatGPT — настоящий рой агентов, выданный в одни руки, за сравнимую стоимость — фантастика. Интересно. Читать далее
https://habr.com/ru/companies/bar/articles/989426/
#машинное_обучение #reinforcement_learning #LLM #мультиагентные_системы #нейросети #искусственный_интеллект #deep_learning #open_source #параллельные_вычисления #Moonshot_AI