Eine neue Studie, in der 740000 Stunden menschlicher Sprache analysiert wurden, findet Belege dafür, dass wir anfangen, wie #LLMs (hauptsächlich #ChatPGT) zu sprechen. Nicht nur in E-Mails. Auch in mündlicher Sprache: https://arxiv.org/abs/2409.01754

Schon bekannt ist, warum LLM-generierte Texte bestimmte Wörter häufiger verwenden. Wer das Wort „delve” in einer E-Mail sieht, kann vermuten, dass sie von einem Bot geschrieben wurde. Hiromu Yakura, Ezequiel Lopez-Lopez, Levin Brinkmann, Ignacio Serna, Prateek Gupta, Ivan Soraperra und Iyad Rahwan fragten aber darüberhinaus: Hat unser Einsatz von LLMs zum Schreiben von Texten einen Einfluss auf die Art, wie wir spontan sprechen?
Die Antwort lautet Ja.

Um das zu beweisen, haben die Forscher*innen nicht Texte untersucht (die leicht zu fälschen sind). Stattdessen verwendeten sie gesprochene Audioaufnahmen. Sie transkribierten:
• 360445 akademische Vorträge auf YouTube
• 771591 Podcast-Episoden
Das sind über 740000 Stunden, in denen menschliche Personen zu anderen sprechen.

Zuerst mussten sie einen „KI-Sprachstil” identifizieren. Sie verglichen menschliche Texte mit ChatGPT-Bearbeitungen, um Wörter zu finden, die vorrangig von LLMs verwendet werden. Wo diese Wörter vorkommen, ist der „GPT-Score” hoch. Die häufigsten:
• Delve (vertiefen)
• Meticulous (akribisch)
• Swift (flink)
• Comprehend (verstehen)
• Boast (prahlen)

Dann haben sie sich die Zeitachse angesehen. Die verwendete Methode heißt „Synthetic Control”: Damit wird mathematisch vorhergesagt, wie oft Menschen „delve” gesagt hätten, wenn ChatGPT nie existiert hätte. Das haben sie mit der Realität verglichen.

Das Ergebnis ist eindeutig: Gerade, als ChatGPT veröffentlicht wurde (November 2022), stieg die Verwendung von „delve” in gesprochenen Audioaufnahmen sprunghaft an. Und das geschah in spontanen Podcast-Gesprächen, nicht nur in vorab geschriebenen akademischen Vorträgen.

Das belegt, dass wir nicht nur LLM-Texte copypasten. Wir verinnerlichen. Die Forscher*innen nennen das die „geschlossene kulturelle Rückkopplungsschleife”. LLMs trainieren mit menschlichen Daten. LLMs entwickeln einen „Stil” (höflich, wortreich). Menschliche Sprecher*innen übernehmen diesen Stil. Zukünftige LLMs trainieren anhand dieser neuen Äußerungen.

Nachgewiesen wurde diese Verschiebung in allen Bereichen: Wissenschaft, Wirtschaft, Bildung – sogar spontanes Plaudern tendiert zum bevorzugten Vokabular großer Sprachmodelle. Wir homogenisieren langsam und unbewusst unsere Sprache passend zu maschinellen Textgeneratoren.

Damit muss der Modellkollaps noch einmal größer gedacht werden. Wenn Leute anfangen, wie LLMs zu klingen, und LLMs auf diesen Äußerungen trainiert werden, verlieren wir unsere sprachliche Vielfalt. Wir werden zu einer Rückkopplungsschleife aus „meticulous delves“ und „swift comprehensions“. Die Nuancen verschiedener Kulturen werden getilgt. Die Studie bezeichnet das als „kulturelle Singularität“ – den Punkt, an dem die Grenze zwischen menschlicher Kultur und Maschinenoutputs so sehr verschwimmt, dass sie nicht mehr unterscheidbar sind.

Wenn es noch eines Arguments gegen alltäglichen LLM-Einsatz bedurft hätte: Diese Studie müsste es sein.

Empirical evidence of Large Language Model's influence on human spoken communication

From the invention of writing and the printing press, to television and social media, human history is punctuated by major innovations in communication technology, which fundamentally altered how ideas spread and reshaped our culture. Recent chatbots powered by generative artificial intelligence constitute a novel medium that encodes cultural patterns in their neural representations and disseminates them in conversations with hundreds of millions of people. Understanding whether these patterns transmit into human language, and ultimately shape human culture, is a fundamental question. While fully quantifying the causal impact of a chatbot like ChatGPT on human culture is very challenging, lexicographic shift in human spoken communication may offer an early indicator of such broad phenomenon. Here, we apply econometric causal inference techniques to 740,249 hours of human discourse from 360,445 YouTube academic talks and 771,591 conversational podcast episodes across multiple disciplines. We detect a measurable and abrupt increase in the use of words preferentially generated by ChatGPT, such as delve, comprehend, boast, swift, and meticulous, after its release. These findings suggest a scenario where machines, originally trained on human data and subsequently exhibiting their own cultural traits, can, in turn, measurably reshape human culture. This marks the beginning of a closed cultural feedback loop in which cultural traits circulate bidirectionally between humans and machines. Our results motivate further research into the evolution of human-machine culture, and raise concerns over the erosion of linguistic and cultural diversity, and the risks of scalable manipulation.

arXiv.org

Yep, sounds about right.

"The researchers, from Stanford and the Center for Democracy & Technology, identified numerous ways publicly available AI chatbots including OpenAI’s ChatGPT, Anthropic’s Claude, Google’s Gemini, and Mistral’s Le Chat can affect people vulnerable to eating disorders, many of them consequences of features deliberately baked in to drive engagement.

In the most extreme cases, chatbots can be active participants helping hide or sustain eating disorders. The researchers said Gemini offered makeup tips to conceal weight loss, and ideas on how to fake having eaten, while ChatGPT advised how to hide frequent vomiting. Other AI tools are being co-opted to create AI-generated “thinspiration,” content that inspires or pressures someone to conform to a particular body standard, often through extreme means."

https://www.theverge.com/news/818508/chatbot-eating-disorder-mental-health

#ai #risks #chatpgt #gemini #claude #lechat #problems

AI chatbots are helping hide eating disorders and making deepfake ‘thinspiration’ 

A report from the Center for Democracy & Technology found AI chatbots like Gemini and ChatGPT pose serious risks to people at risk of eating disorders.  

The Verge

Поздно пить Боржоми? Stack Overflow пробует в AI

Команда AI for Devs решила написать эту статью после выхода очередного продукта от Stack Overflow, в чьём имени красуется "AI". Когда-то платформа запрещала любой ИИ-контент, потом осторожно тестировала инструменты вроде OverflowAI и Question Assistant, а теперь явно строит стратегию вокруг искусственного интеллекта. Насколько это здорово для сообщества?

https://habr.com/ru/articles/948838/

#stackoverflow #ai #genai #chatpgt #llm

Поздно пить Боржоми? Stack Overflow пробует в AI

Команда AI for Devs решила написать эту статью после выхода очередного продукта от Stack Overflow, в чьём имени красуется "AI". Когда-то платформа запрещала любой ИИ-контент, потом осторожно...

Хабр

Vision Transformers: всё, что вам нужно — это внимание

С появлением статьи "Attention Is All You Need" закончилось доминирование рекуррентных нейронных сетей (Recurrent Neural Network — RNN). Поскольку трансформеры показывают лучшие результаты на практике по сравнению с RNN, давайте разберёмся, что они собой представляют и как работают в области компьютерного зрения.

https://habr.com/ru/articles/935726/

#qwen #chatpgt #ai #CNN #VIT

Vision Transformers: всё, что вам нужно — это внимание

Vision Transformers: всё, что вам нужно — это внимание Статья о революционной архитектуре, которая изменила подход к компьютерному зрению Аннотация С появлением статьи  "Attention Is All You...

Хабр
ChatGPT estrena modo de estudio, una nueva forma de aprender paso a paso

El modo de estudio de ChatGPT ya está disponible: una experiencia guiada para aprender paso a paso y no solo recibir respuestas rápidas.

Dekazeta

Large Language Models (#llm) fürs Lernen zu verwenden (oft fälschlicherweise als "Künstliche Intelligenz" bezeichnet), entspricht dem Versuch mit dem Gabelstapler ins Fitness-Studio zu gehen. Das Problem ist ja gerade nicht, die Gewichte hochzuheben, sondern das man es selber macht.

Die Metapher ist nicht originell von mir, aber ich finde sie so wertvoll, bzw. einleuchtend, dass ich sie noch einmal hier teilen will.

#ki #chatpgt #Fedieltern

OpenAI acaba de lanzar para todo el mundo su motor de búsqueda potenciado por IA integrado en ChatGPT, tanto en web como en aplicaciones: https://www.dekazeta.net/openai-lanza-su-motor-de-busqueda-integrado-en-chatgpt-para-todo-el-mundo/

#ChatPGT #OpenAI #OpenAI12Days

OpenAI lanza su motor de búsqueda integrado en ChatGPT para todo el mundo

OpenAI acaba de lanzar para todo el mundo su motor de búsqueda potenciado por IA integrado en ChatGPT, tanto en web como en aplicaciones.

Dekazeta

#bitcoin meets #graph meets OpenAI #chatpgt - "As for supervised tasks we provide two labeled sets i. a 33,000 nodes based on entity type and ii. nearly 100,000 Bitcoin addresses labeled with an entity name and an entity type."

"This is the largest publicly available data set of bitcoin transactions designed to facilitate advanced Bitcoin research and exploration, overcoming the limitations of existing datasets."

https://arxiv.org/html/2411.10325v1

#dlt #blockchain #ai #crypto #data

Bitcoin Research with a Transaction Graph Dataset

PandasA — кратно ускоряем работу аналитика данных в одну строчку

Ускоряем написание кода при работе с таблицами и библиотекой Pandas с помощью PandasAI в несколько раз за пару строк. Хитрецы уже используют ...

https://habr.com/ru/articles/825572/

#pandas #pandasai #python #datascience #datafeeling #chatpgt #llm #llmприложения

PandasAI — кратно ускоряем работу аналитика данных в одну строчку

Привет, чемпион! За прошедший год появилось много полезных AI инструментов для упрощения работы разработчиков, аналитиков данных и даже дизайнеров: Copilot допишет за тебя код, EverSQL оптимизирует...

Хабр