@rpsu ja siis.. tässäkin tapauksessa virheen todella teki ihminen. Tekoälytyökalu ei tee päätöksiä eikä sitä voida tuoda vastuuseen joten syyllinen on aina sitä käyttävä ihminen.
Tässä olis joku pieni opetuksen paikka siitä miten oman ajattelun ulkoistaminen lähtökohtaisesti epäluotettavalle työkalulle, jonka jälkiä pitää olla joka kerta tarkistamassa käyttäen siihen lopulta enemmän aivokapasiteettia kuin jos sen työ ois tehny alun perin itse, ei ehkä ole se kaikkien paras idea vaikka näennäisesti sillä jotain tehokkuutta muka saavutetaan.
Tää on se sama paradoksi jota ihmettelen ja mietin miksei kukaan muu ympärilläni tunnu näkevän sitä: jos työkalu voi antaa väärää tietoa ja sun pitää tarkistaa kaikki mitä se tuottaa, miten kukaan kehtaa laittaa oman nimensä sellaisen alle ja ottaa riskin siitä että työkalun takia oma uskottavuus kärsii?
Minä en kyllä suostuis milloinkaan luottamaan edes toisen ihmisen tuotokseen ja laittais sitä ulos omissa nimissä, saatika sitten jonku tekoälyn johon on sisäänrakennettu virheprosentti jonka kaikki vielä tietää. Ihmisestä voi vielä sentään olettaa että hän tekee parhaansa ja tiedostaa puutteensa, mut tekoäly ei edes ajattele joten sieltä voi kirjaimellisesti tulla joko faktaa tai paskaa etkä aina pysty edes erottelemaan kumpi on kumpi ellet näe niin paljon vaivaa sen selvittämiseksi et olis ollu sama tehdä ite alusta asti.