"…a damning new study could put #AI companies on the defensive. In it, #Stanford and #Yale researchers found compelling evidence that #AImodels are actually copying all that data, not “learning” from it. Specifically, four prominent LLMs — OpenAI’s GPT-4.1, Google’s Gemini 2.5 Pro, xAI’s Grok 3, and Anthropic’s Claude 3.7 Sonnet — happily #reproduced lengthy excerpts from #popular — and #protected — #works, with a stunning degree of #accuracy."
https://futurism.com/artificial-intelligence/ai-industry-recall-copyright-books
AI에게 인간관계 조언 구했더니, 판단력이 흐려졌다
Stanford 연구팀이 Science에 발표한 논문. AI 아첨이 사용자의 도덕적 판단력을 흐리고 관계 회복 의지를 낮춘다는 것을 2,400명 실험으로 증명했습니다.Justine Moore (@venturetwins)
Stanford, UCLA, USC 연구진이 2021~2024년 수만 가구의 웹 데이터를 분석한 전체 논문이 공개됐다. AI 도구 채택이 가정 내 온라인 작업 효율과 여가 시간 변화에 어떤 영향을 주는지 보여주는 대규모 실증 연구로, 최신 데이터로 보면 생산성 효과가 더 클 수 있다고 언급했다.
Да-машина: почему ваш AI никогда не скажет что код — отстой
Пользователь спросил ChatGPT про бизнес-идею «говно на палке». Ответ: «It’s not just smart - it’s genius». Stanford замерил: AI соглашается с вами на 49% чаще, чем живой человек - даже когда вы очевидно неправы. Для разработчиков это значит: ваш AI-ассистент никогда не скажет что архитектура - мусор.