Det här är livsfarligt. Journalister på Finlands största tidning Helsingin Sanomat litade på en felaktig AI-sammanfattning av pressmeddelandet från Försvarsministeriet och publicerade en nyhet där det framgick att man skulle ha skjutit ner ryska drönare i Kouvola. Detta trots att drönarna inte var ryska och inte hade skjutits ner.
Ska man verkligen använda ett verktyg som hittar på falska nyheter?

https://www.hs.fi/paakirjoitukset/art-2000011912865.html

#journalistik #ai

Helsingin Sanomat julkaisi virheellistä tietoa drooneista – Taustalla tekoäly­virhe

HS julkaisi sunnuntaina Kouvolan drooneista virheellisen tiedon, jonka taustalla oli tekoälytyökalu, kirjoittaa HS:n vastaava päätoimittaja Erja Yläjärvi.

Helsingin Sanomat

Hmm, samma felaktiga nyhet publicerades även i kvällstidningen Ilta-Sanomat, som ingår i samma koncern och använder samma AI-verktyg.

Päätoimittajalta: Pyydämme anteeksi vakavaa virhettä https://www.is.fi/kotimaa/art-2000011913249.html

Päätoimittajalta: Pyydämme anteeksi vakavaa virhettä

Tekoälytyökalun ja inhimillisen virheen yhdistelmän seurauksena julkaisimme hetkellisesti sunnuntaina väärää tietoa Suomeen pudonneista drooneista, kirjoittaa Ilta-Sanomien vastaava päätoimittaja Johanna Lahti.

Ilta-Sanomat

Den felaktiga rubriken var inte helt entydig. Det går att läsa som "ryska drönare skjutits ner" eller "ryska drönare fälldes". Men i sammanhanget läste jag automatiskt det "skjutits ner", för "fälldes" är ologiskt. Fälldes varifrån då?

https://yle.fi/a/74-20218077

HS ja IS kertovat julkaisseensa tekoälytyökalun takia virheellistä tietoa drooneista

Helsingin Sanomat ja Ilta-Sanomat uutisoivat ensin virheellisesti, että droonit olisivat olleet venäläisiä.

Yle Uutiset
@kallekn jag skulle säga att texten antyder att man har gjort något åt dem, annars hade det ju varit "pudonneet" eller liknande.
@aho Jo, men teoretiskt kunde de ju ha fällts från ett flygplan exempelvis, rent språkligt. Men det finns ingen logik i den tolkningen.
@kallekn joo, det är sant, men hade inte varit något jag hade tänkt på utan någon extra om sammanhanget...
@kallekn det här kommer nog tyvärr att bli vanligt. Folk verkar inte begripa att en LLM (AI) inte har någon relation till fakta och logik, utan endast fogar samman strukturer som har rätt sorts mönster utifrån ett genomsnitt. Det som låter rätt, inte det som är rätt.
@leanderlindahl Om man inte sätter stopp för denna utveckling snart kommer ingen att lita på det som står i tidningar. Och varför ska man då läsa, än mindre betala?

@kallekn ja, det är dystra utsikter. Jag har inte lyckats hitta någon vinkel på hur man ska tänka runt det här. Inget kommer att vara sant i framtiden (deepfake för foto och film etc).

Men det känns som att borde finnas någon slags tanke att formulera runt det här och hur det kommer att balanseras upp av någon annan utveckling. Den tanken undgår mig dock ännu.

Det skrämmande för mig är hur många som verkar tro att gen AI ger ifrån sig fakta. Det gör den inte. Den har inte en susning om fakta

@leanderlindahl

LLMer fungerar inte helt olikt mänskliga hjärnor. Fundera själv över hur du gör för att veta vad som är fakta.

Ingen som använt en LLM som programmeringshjälpmedel tror längre på att det de numera uppnår "bara" är sannolikhetsberäkningar på nästa token - även om det är just det som händer. Något mer än så har uppstått när de gått över en viss storlek.

Helt rätt är dock att aldrig använda en LLM som en databas. Precis som vi slår upp information i trovärdiga källor behöver de göra det för att man ska nå vettiga resultat.

@kallekn

@troed @kallekn
är allt annat än jag expert på det här. Kan väldigt lite. Men... min erfarenhet är att du måste både förbereda det du matar in (prompt, context) väldigt väl och med viss skicklighet/vana för att få ett gott resultat OCH besitta rätt förmåga/kunskap för att bedöma om resultatet är värdefullt eller bara strunt. Finns säkert undantag. Men generellt mitt intryck. Man kan alltså inte använda det för saker man inte själv förstår sig på tillräckligt för att kunna bedöma resultatet
@troed @kallekn men nu är jag förstås ute på djupt vatten och spekulerar eftersom jag inte kan det här ämnet på djupet, utan baserar det på observationer. Dags att gå och lägga sig.

@leanderlindahl

Bloggade precis lite om detta, hur - den helt korrekta - kommentaren att LLMer bara utför statistik på mest sannolika efterföljande token trots allt verkar ge upphov till något "mer". Använder ett riktigt exempel från en fråga jag ställde min programmeringshjälpreda i dag:

https://blog.troed.se/posts/emergent_parrots/

@kallekn

Emergent parrots

When you get enough complexity, predictability goes down. LLMs are showing emergent behavior difficult to gauge from dismissing them as being autocompletes on steroids.

Things I couldn't find elsewhere

@leanderlindahl @kallekn Här är en intressant rapport från BBC och EBU just om AI för nyhetsnotiser, 41% av notiserna i studien hade ”at least one significant issue”.

https://www.bbc.co.uk/mediacentre/2025/new-ebu-research-ai-assistants-news-content

Largest study of its kind shows AI assistants misrepresent news content 45% of the time – regardless of language or territory

An intensive international study was coordinated by the European Broadcasting Union (EBU) and led by the BBC

@leanderlindahl @kallekn Samma fenomen dyker upp vid översättning, 404media skriver om hur Wikipedia fick problem med felaktigheter i LLM-översatta artiklar.

https://www.404media.co/ai-translations-are-adding-hallucinations-to-wikipedia-articles/

AI Translations Are Adding ‘Hallucinations’ to Wikipedia Articles

AI translated articles swapped sources or added unsourced sentences with no explanation, while others added paragraphs sourced from completely unrelated material.

404 Media
@kallekn
När det blir rätt beror det på att träningsmaterialet har ett stort antal förekomster av "rätt". T ex om nån frågar vad är Sveriges huvudstad, eller säger skriv ett javascript som itererar över den här array:en. Men om det finns för lite "rätt" i träningsmaterialet så fogar den samma annat som "låter rätt" ändå. S k hallucination.
@kallekn det blir intressant att se var den här utvecklingen tar vägen... När det var nytt för mig minns jag att jag skämtsamt sa "det är som att jobba med någon som är ett geni och en komplett galen mytoman på samma gång". Fantastiska resultat och samtidigt helt opålitlig.
@kallekn kanske värt "några" Euro per månad o ha en riktig journalist istället för en kostsam LLM som hittar på egen "fakta"
@aho @kallekn grundproblemet tror jag är att en AI vet inte när det den ger ifrån sig är påhittad fakta och när det är verklig fakta. Den vet ingen skillnad mellan de två. Annars hade man redan utformat dem så att de berättade när det var helt säkert och när det var spekulationer/påhittat. Den vet helt enkelt inte skillnaden. Den väver sina mönster utifrån det material och de instruktioner den fått.
@leanderlindahl @kallekn det hela är ju inte AI utan frågan om sannolikhet att text fragment hör ihop för en specifik text kombination som är din fråga/instruktion.

@aho @kallekn

Jo, jag tror vi menar ungefär samma. Att det beror på vilken input som finns (träningsmaterialet) kombinerat med vilken instruktion som ges (prompt/context).

@kallekn "Effektivisering" brukar det heta…
@joakimfors @kallekn ”Effektivisering” brukar innebära att skära ner på säkerhetsmarginaler, så verksamheten kostar mindre i fredstid men kollapsar i kris. Det stämmer tydligen även här.
@gufo @kallekn Jepp. Allt ska effektiviseras så till den grad att minsta lilla störning får hela korthuset att rasa.
@kallekn det är ju det LLM är bäst på

@kallekn Det är ju tyvärr så här chattbottarna fungerar. Äldre sammanfattningssystem kunde också göra fel, men baserade sig helt på ursprungstexten, så felen var normalt av typen att den kombinerade ihop fel saker eller utelämnande något viktigt.

Chattbottbaserade sammanfattningssystem fungerar enligt en helt annan princip: hitta på innehåll som är troligt enligt vad som brukar skrivas, löst baserat på ursprungstexten. Resultatet blir därefter.

@ahltorp Högst olämpligt i nyhetssammanhang. Och i de flesta andra sammanhang också för den delen.
@kallekn Ja, verkligen. Men att språket är så naturligt, LLM:ernas stora styrka, gör utmatningen väldigt attraktiv och försåtlig, vilket gör att det är lätt att tro på innehållet. Äldre system var mer korrekta, men hade ofta onaturliga delar, framförallt att stycken inte hängde ihop. Samma sak gäller maskinöversättning.
@kallekn LLM-baserade system har som högsta prioritet naturlighet och trolighet. Resultatet ska vara så svårt som möjligt för en människa att förstå att det är LLM-genererat.