📣 JournĂ©e internationale pour l'Ă©limination de la discrimination raciale! L'utilisation d'algorithmes et d'IA peut conduire Ă  une augmentation de la discrimination des personnes non blanches. C'est pourquoi nous devons renforcer la protection contre la discrimination algorithmique en Suisse‌ #IAsansDiscrimination

⚖ Aujourd'hui, Ă  l'occasion de la #JournĂ©eDesDroitsHumains, nous rappelons l'article 2 de la DĂ©claration universelle des droits de l'homme: l'interdiction de la discrimination.

☂ Tout au long de l'annĂ©e, nous avons montrĂ©, Ă  l'aide d'exemples de cas concrets, comment les algorithmes et l'IA peuvent discriminer. Vers l'aperçu: https://algorithmwatch.ch/fr/serie-discrimination-algorithmique/

👉 Conclusion: la protection contre la discrimination en Suisse est obsolùte et a besoin d'une mise à jour.

#IAsansDiscrimination

Discrimination 2.0 : ces algorithmes qui discriminent - AlgorithmWatch CH

A l'aide d'exemples concrets, nous mettons en lumiÚre la diversité des cas de discrimination algorithmique.

AlgorithmWatch CH

«Selon Olivier Feller (PLR/VD), â€čdes rĂšgles claires doivent protĂ©ger la dĂ©mocratie et les citoyens d’un usage dĂ©voyĂ© de l’IAâ€ș. â€čLe droit fondamental Ă  la protection contre la discrimination doit ĂȘtre protĂ©gĂ© efficacement, en particulier Ă  l'Ăšre des algorithmes et de l'Intelligence artificielleâ€ș, lui a fait Ă©cho le Vert @bglaettli», rapporte Watson: https://www.watson.ch/fr/suisse/politique/132033575-ia-une-petition-met-la-pression-sur-le-conseil-federal

#IAsansDiscrimination

IA: une pétition met la pression sur le Conseil fédéral

Une pétition soutenue par quelque 45 organisations et des parlementaires de six partis a été remise au Conseil fédéral ce mardi.

watson

🚀 Nous venons de remettre notre appel Ă  la Chancellerie fĂ©dĂ©rale: nous appelons le Conseil fĂ©dĂ©ral Ă  faire de la protection contre la discrimination une prioritĂ© des rĂ©glementations Ă  venir autour de l'IA.

đŸ’Ș Quelques 45 organisations ainsi que des membres du Parlement fĂ©dĂ©ral du PLR, du Centre, du PEV, des Verts'libĂ©raux, du PS et des Vert·e·s soutiennent l’appel.

❗ C'est maintenant au Conseil fĂ©dĂ©ral d'assumer ses responsabilitĂ©s: https://algorithmwatch.ch/fr/ia-appel-remise/

#IAsansDiscrimination

Le Conseil fĂ©dĂ©ral toujours plus sous pression sur l’IA - AlgorithmWatch CH

Au nom d'une large coalition, AlgorithmWatch CH a remis ce mardi au Conseil fĂ©dĂ©ral une pĂ©tition sur l’Intelligence artificielle. Quelque 45 organisations appellent le Conseil fĂ©dĂ©ral Ă  faire de la protection contre la discrimination une prioritĂ© des rĂ©glementations Ă  venir autour de l'IA. Des parlementaires de six partis soutiennent cette demande et un grand nombre a participĂ© Ă  la remise.

AlgorithmWatch CH

Derniùre ligne droite pour notre appel! 🏁

🎬 Voici une raison supplĂ©mentaire de soutenir notre appel au Conseil fĂ©dĂ©ral: l'utilisation d'algorithmes et d'IA peut aussi discriminerr les personnes en situation de handicap. SĂ©bastien Kessler, membre du comitĂ© d'Inclusion Handicap, explique dans cette vidĂ©o un cas qui s’est produit en Europe.

❗Partage maintenant et montre à l'algorithme que ce sujet te tient à cƓur – merci beaucoup! 👉 https://IA-sans-discrimination.ch

#IAsansDiscrimination

Intelligence artificielle avec responsabilité  sans discrimination - AlgorithmWatch CH

La protection contre la discrimination a besoin d’une mise Ă  jour. Car l'utilisation d'algorithmes & d'IA peut discriminer des personnes. InitiĂ©e par AlgorithmWatch CH, une large coalition appelle le Conseil fĂ©dĂ©ral Ă  agir. Signe maintenant l’appel!

AlgorithmWatch CH

🎉 Notre appel au Conseil fĂ©dĂ©ral compte dĂ©jĂ  plus de 1'000 signataires - merci beaucoup, chaque voix compte !

👉 Toi aussi, joins-toi à nous et signe dùs maintenant notre appel, qui est largement soutenu, pour une http://IA-sans-Discrimination.ch/.

#IAsansDiscrimination

Intelligence artificielle avec responsabilité  sans discrimination - AlgorithmWatch CH

La protection contre la discrimination a besoin d’une mise Ă  jour. Car l'utilisation d'algorithmes & d'IA peut discriminer des personnes. InitiĂ©e par AlgorithmWatch CH, une large coalition appelle le Conseil fĂ©dĂ©ral Ă  agir. Signe maintenant l’appel!

AlgorithmWatch CH

« Des élus et élues de tous bords s'inquiÚtent des algorithmes qui discriminent les femmes, les étrangers ou encore les handicapés. Ils ont signé l'appel de l'ONG @algorithmwatch_ch qui demande au Conseil fédéral de tenir compte de ces dérives dans sa future régulation de l'intelligence artificielle prévue d'ici l'année prochaine. »

Vers l'article de la @RadioTeleSuisse sur notre demande au Conseil fĂ©dĂ©ral pour une #IAsansDiscrimination —

https://www.rts.ch/info/suisse/2024/article/des-elus-federaux-ne-veulent-plus-des-algorithmes-discriminants-28562834.html

Des élus fédéraux ne veulent plus des algorithmes discriminants

Des élus et élues de tous bords s'inquiÚtent des algorithmes qui discriminent les femmes, les étrangers ou encore les handicapés. Ils ont signé l'appel de l'ONG Algorithmwatch, qui demande au Conseil fédéral de tenir compte de ces dérives dans sa future régulation de l'intelligence artificielle prévue d'ici l'année prochaine.

Radio Télévision Suisse

Unser Appell in der Presseschau – aussi en Suisse romande e in Ticino! đŸ’„

In allen Landesteilen haben Medien ĂŒber unseren breit abgestĂŒtzten Appell an den Bundesrat zum Schutz vor Diskriminierung durch KI berichtet.

Unterzeichne auch du 👉 https://KI-ohne-Diskriminierung.ch ❗

#KIohneDiskriminierung

--

Notre appel au Conseil fédéral a été relayé par les médias dans toutes les régions du pays.

Signe toi aussi 👉 https://IA-sans-Discrimination.ch ❗

#IAsansDiscrimination

KĂŒnstliche Intelligenz mit Verantwortung 
 ohne Diskriminierung - AlgorithmWatch CH

Der Schutz vor Diskriminierung braucht ein Update. Denn der Einsatz von Algorithmen & KI kann Menschen diskriminieren. Initiiert von AlgorithmWatch CH ruft eine breite Koalition den Bundesrat zum Handeln auf. Jetzt den Appell unterzeichnen!

AlgorithmWatch CH