Silmäilen SEP-uusintaa komputaatiosta ja moraalisesta vastuusta, https://plato.stanford.edu/entries/computing-responsibility/. Englannin accountabilityn ja responsibilityn eron suomentamisen vaikeuteen liittyy kiista tekoälyn näkemisestä moraalisena agenttina vs. vain luojiensa ja käyttäjiensä vastuuttaminen. Toimijan, kuten ChatGPT:n tai miksei vaikka digitalisaation tai somen, ei tarvinne olla vapaatahtoinen tai persoona käydäkseen A-vastuullisesta ja ollakseen eettisesti ei-neutraali. Liekö tuossa mitä uutta?

#chatgpt #moraali

Computing and Moral Responsibility (Stanford Encyclopedia of Philosophy)

Sinänsä vanhahtavan artikkelin OIR:stä voi löytyä jotain jännittävää aiheesta kiinnostuneille: https://plato.stanford.edu/entries/computing-responsibility/#Oth. Mm. neljä äärimmäisen up-to-date on-line journaalia, esimerkkinä vaikkapa kirjoitus online-AI-kurssien poliittisesta taloudesta BigData & Societyssä, https://journals.sagepub.com/doi/10.1177/20539517231153806. Me muut tietenkin puksutamme autuaan tietämättöminä jälkijunassa.

#tekoäly #bigdata #ML #koneoppiminen

Computing and Moral Responsibility (Stanford Encyclopedia of Philosophy)

Kuka kontrolloi ketä? -kysytään eilen ilmestyneessä EaIT-jounaalin artikkelissa liittyen tekoälyyn turvallisuusalalla, https://link.springer.com/article/10.1007/s10676-023-09686-x.

Tämä toisena esimerkkinä kehumastani tuoreudesta ja ajankohtaisuudesta SEP-entryn OIR-linkeissä. "Merkittävän inhimillisen kontrollin" pohdinnat yleistynevät laajemminkin, vaikka esimerkkinä oli vain pommidroonin AI-avusteinen pudottaminen.

Asioita tutkitaan siksi, että ei kuvitella vielä tiedettävän.

#tekoäly #AI #security #research #explainable

Who is controlling whom? Reframing “meaningful human control” of AI systems in security - Ethics and Information Technology

Decisions in security contexts, including armed conflict, law enforcement, and disaster relief, often need to be taken under circumstances of limited information, stress, and time pressure. Since AI systems are capable of providing a certain amount of relief in such contexts, such systems will become increasingly important, be it as decision-support or decision-making systems. However, given that human life may be at stake in such situations, moral responsibility for such decisions should remain with humans. Hence the idea of “meaningful human control” of intelligent systems. In this opinion paper, we outline generic configurations of control of AI and we present an alternative to human control of AI, namely the inverse idea of having AI control humans, and we discuss the normative consequences of this alternative.

SpringerLink

Sattumoisin huomasin myös IEP:n sisältävän kurantin oloisen entryn tekoälyn etiikasta, https://iep.utm.edu/ethics-of-artificial-intelligence/. Tulkoon tähän ketjuun linkatuksi, jos ketä kiinnostaa. Otan tuon pureskeltavaksi viikonlopuksi, ellei muuta ilmaannu.

#tekoäly #etiikka #AI #ethics #IEP

Ethics of Artificial Intelligence | Internet Encyclopedia of Philosophy

Lueskelinkin saman tien, kun osui sopiva sauma. Ihan hyödyllistä vaikka kertauksena, kunhan välttää fiksoitumasta ns. vanhoihin tietoihinsa älystä, tietoisuudesta tai mielestä. Lie aktiivisimpia moraalifilosofisen tutkimuksen alueita nykyään. Lukuun 3 eettisistä suuntaviivoista viittasin jo toisaalla, https://mastodontti.fi/@lupposofi/109999353257774254, ja itselleni nousi positiivisesti esiin mm. Toby Ordin nimi, https://en.wikipedia.org/wiki/Toby_Ord. Näkyy kirjoittaneen tuollaisen kirjan, https://en.wikipedia.org/wiki/The_Precipice:_Existential_Risk_and_the_Future_of_Humanity.
Lupposofi (@[email protected])

JK:na tuohon (a)siantuntijaryhmän kokoonpanoon ja lobbaukseen liittyen, että IEP:n AI:n etiikkaa käsittelevä entry mainitsee lopussa erikseen ryhmän vinon kokoonpanon ja arvelee EU:n Ethical Guidelines for Trustworthy AI -dokumenttia paitsi hampaattomaksi, myös esimerkiksi teollisuuden harjoittamasta "etiikka-pesusta", https://iep.utm.edu/ethics-of-artificial-intelligence/#H3. #ethicswashing #EU #aiethics #chatgpt

Mastodontti