Mitä mieltä alan ammattilaiset ovat, kuinka paljon uskaltaa luottaa ChatGPT:n vastauksiin softakehityksestä? Esimerkkinä simppelimmät tietokyselyt ”Mitä eroa on .NET Corella ja .NET Frameworkilla”? tai ”Miten Spring ja Spring Boot eroavat toisistaan?” tai päättelyä vaativa kysymys ”Mitä mahdollisesti tehdään, jos käytettävät teknologiat ovat Python, Angular ja Django?” #MastodonFi #ohjelmistokehitys

@jpaivarinta Ei lainkaan. Osa vastauksista saattaa mennä kohdalleen, osa olla ihan puuta heinää, ja suuri osa on jotain siltä väliltä. Ja kaikki voivat näyttää uskottavilta, jos ei itse tiedä.

Täytyy muistaa, että kielimalli ei ”tiedä” mitään, se tulkitsee kysymyksen muodon (ei merkitystä), ja oikeasti ei siis vastaa sun kysymykseesi vaan siihen, että jos internetissä on kysytty jotain tämännäköistä, minkänäköisiä vastauksia siihen on annettu. Tiedon kanssa niillä on tekemistä vain sattumalta.

@jpaivarinta Amatöörinä vastaan, että en luottaisi mihinkään sen tuottamaan, jonka paikkansapitävyyttä en itse ole tarkistanut alusta loppuun. Eli ei tuollaisia kysymyksiä, joihin vastaus tulee luonnollisella kielellä. Niistä ei tiedä onko ne oikein, ellei valmiiksi tiedä vastausta, jolloin ei tietenkään ole edes syytä kysyä...

Mutta sitten taas lyhyt ohjelmakoodi, komennot yms. voivat olla hyviä kysyttäviä, jos vastaus ei tule osaksi mihinkään kriittiseen, ymmärtää itse koodia lukemalla tarpeeksi että tietää mitä se tekee jos se toimii, ja jos oikeellisuus on helposti testattavissa. Ei omaa kokemusta minulla, mutta olen nähnyt muiden esimerkkejä.

Esim. “Miten saan ffmpeg:llä yhdistettyä neljä videota ruudukoksi niin että resoluutioksi tulee 1080p ja ensimmäinen video näytetään käänteisillä väreillä?” voi olla hyvä kysymys. Vastaus joko toimii tai ei toimi halutulla tavalla, eikä virhe ole katastrofi. Ottaa kenties vain videoista varmuuskopiot ensin.