@mbergnordlie @jukselapp
Me gjorde stikkprøveundersøkingar undervegs og endra på «prompten» med oppgåvebeskrivinga me gav GPT-4 for å, så godt me kunne, korrigere for dette. I disse stikkprøvane var det nokre ting som gjekk igjen:
1. Kommentarar som gjenga andres problematiske ytringar, anten som sitat eller i karikert/sarkastisk format, vart ofte feilaktig klassifisert som negative ytringar mot samar. Dette var vanskeleg å korrigere for ved å endre «prompten».
2. Kommentarar som nytta sterkt og nedsettande språk, men som ikkje var retta mot samar på bakgrunn av deira identitet, vart ofte feilaktig kategorisert som negative ytringar mot samar. Dette var relativt enkelt å korrigere for ved å endre «prompten».
3. Kommentarar skriven på veldig dialektnært eller munnleg vis var ofte vanskelege å klassifisere. Dette slo litt ut begge veger.
I dei falske negative var det færre konkrete ting som gjekk igjen.
Merk at dette er basert på mine kvalitative og stikkprøvebaserte observasjonar, og er ikkje ein del av analysegrunnlaget i rapporten anna enn gjennom at det bidrog til å gje ei betre oppgåvebeskriving til GPT-4.
(Endring: Nokre skrivefeil)