Pour le coup, la shitstorm sur #VLC qui ajoute de « l’IA » m’a l’air complètement hors sol et du gros emballement, et ça m’énerve un peu car j’ai l’impression que c’est encore du validisme derrière. 😬

Pour résumer, VLC va ajouter une fonction optionnelle pour des « sous-titrages » par IA pour les vidéos qui n’en ont pas.
L’auteur explique que c’est pas juste pour le plaisir de mettre de l’IA partout hein, mais un outil d’accessibilité optionnel pour tenter de rendre un tout petit peu accessibles les (trop nombreuses) vidéos qui n’ont pas de sous-titres. Tout en précisant qu’à l’évidence ce serait mieux d’avoir des vrais sous-titres professionnels faits par des humains (que VLC continuera d’afficher quand ils existent, évidemment).

Cf https://beige.party/@bedast/113799126497343123

Alors OK, c’est de « l’IA », mais ça me paraît être un des rares usages « justifiés » et utiles de l’IA, pour le coup, et je pense qu’on est ici dans une réaction épidermique et dépolitisée, parce qu’ici il y a à peu près aucun des nombreux inconvénients de « l’IA » qu’on voit habituellement.

Le seul « argument » que j’ai lu contre cette utilisation spécifique dans VLC, c’est l’impact environnemental, comme quoi l’IA ça « gaspillerait » des cycles CPU/GPU, et donc des ressources naturelles, de l’eau pour le refroidissement des serveurs et tout, etc. bref vous connaissez l’impact environnemental dramatique en général des data centers.
Sauf que là c’est justement pas le cas.

Quand c’est pour produire des résultats de recherche trompeurs et dangereux sur Google ou autre, oui c’est du gaspillage, parce que ça n’apporte absolument rien à personne (au contraire), et ça a un impact à grande échelle terrible parce que c’est imposé à des millions de gens (qui n’en veulent pas en plus) pour produire rien d’utile.

Mais sauf que dans le cas de VLC, d’une part l’impact total du truc sur l’environnement sera absolument négligeable, parce que seule une infime partie des gens qui utilisent VLC utiliseront cette fonctionnalité.

Mais en plus et surtout, pour le coup on parle d’une utilisation justifiée de l’IA, qui pourrait permettre à des gens de profiter de vidéos auxquelles sinon iels ne pourraient pas accéder ! C’est pas du « gaspillage », parce que ça produit quelque chose de vraiment utile, ça sert à des gens !

Je vous ferais remarquer que quand on joue à des jeux vidéos, ou même quand on regarde une vidéo, ça utilise des cycles CPU/GPU aussi en fait !
Probablement plus que la fonctionnalité de sous-titrage en fait, parce que pour rappel, rien que pour une vidéo basique en FHD, il faut décoder des vidéos compressées en 24+ images/seconde qui font chacune 1920*1080 = 2.07 millions de pixels hein. Avec trois composantes par pixel.
Je vous laisse calculer le nombre de cycles que ça fait tout ça.
Et les jeux j’en parle même pas parce que la consommation en énergie doit être encore pire.

Et pourtant on dit pas que ce serait du « gaspillage » tout ça, parce que ça nous procure un plaisir et qu’on considère que ce plaisir justifie cette utilisation et cette dépense de ressources. Sinon ce serait facile d’arrêter pour protéger la planète hein, mais personne le propose, bizarrement. On peut aussi aller vivre en forêt pour réduire notre impact environnemental.

Par contre, une fonctionnalité qui pourrait permettre aux sourd·e·s et aux malentendant·e·s de profiter elleux aussi des mêmes choses que nous, pour un coût en ressources dérisoire en pratique, ben non, surtout pas, là ça devient d’un coup du « gaspillage » hein, et hop c’est la levée de boucliers partout. 😬

Vraiment à un moment il faudrait prendre un peu de recul. 😬

bedast (@[email protected])

The enshittification of AI has lead to the choice of AI used by VLC to be groaned at. I even saw a post cross my feed of someone looking for a replacement for VLC. VLC is working on on-device realtime captioning. This has nothing to do with generating images or video using AI. This has nothing to do with LLMs. This is not generative AI. While it would be preferred to use human generated captions for better accuracy, this is not always possible. This means a lot of video media is inaccessible to those with hearing impairment. What VLC is doing is something that will contribute to accessibility in a big way. AI transcription is still not perfect. It has its problems. But this is one of those things that we should be hoping to advance. I'm not looking to replace humans in creating captions. I think we're very far from ever being able to do this correctly without humans. But as I said, there's a ton of video content that simply do not have captions available, human generated or not. So long as they're not trying to manipulate the transcription using GenAI means, this is the wrong one to demonize. #AI #Transcription #VLC #HearingImpaired #Deaf #Accessibility

beige.party
OK j’ai menti quand j’ai dit que ça m’énervait qu’un peu. 😐
Ça me fait totalement penser au coup de l’interdiction des pailles en plastique : une mesurette ridicule à l’impact totalement nul, juste pour la galerie, alors qu’on laisse des gaspillages énormes à côté, et qui sacrifiait là aussi le bien-être de pas mal de handi·e·s, mais y avait quand même un paquet de gens pour la défendre bec et ongle. 😬
Bon je mute le thread sinon je vais y perdre ma journée. 😐
@jor Alors que des pailles en paille fonctionnent très bien, testé...
@jor puis c’est pas comme si la transcription audio -> écrit était quasiment un des seuls domaines où les outils IA sont pas merdiques

@antifamondiale @jor En général les modèles de machine learning ont un intérêt pour de la traitement et transformation de signal: analyse d'image, reconnaissance vocale, algorithmes de suppression du bruit numérique (photo/vidéo), atténuation des sons parasites (audio), etc.

Tous les usages de ce type ne sont pas toujours bons, et il peut quand même y avoir des biais culturels encodés dans le modèle, mais c'est globalement: plus utile, moins délirant, moins consommateur de resources et entrainé de manière plus éthique que les grosses IA génératives.

@jor Je pense que les gens comprennent très bien quand on dit "les ias c'est de la merde", de la manière qu'on parle de violences sexistes comme "les hommes tuent", les gens chialent de manière apolitique sur des détails.

Pour voler l'art des autres il y a du monde, par contre pour utiliser l'ia de manière intelligente (pour les handicapés par exemple) ben y a plus personne. Les gens préfèrent être teubés et utiliser ChatGPT pour parloter car ils s'ennuient. C'est de la paresse intellectuelle d'utiliser des outils sans réfléchir à l'éthique derrière. Une hypocrisie crasseuse, alors que de nombreuses ressources existent de POURQUOI il ne faut pas les utiliser.

Dans mon corps de métier (jdr) les gens sont totalement à la ramasse, les utilisant pour un oui ou pour non, ils prennent ça pour un jeu. Les pros les utilisent sans jamais mentionner pour créer des trucs aussi bien gratuits que payants, ou pour les amateurs illustrer leurs jeux de rôles merdiques. Quand on ose ne pas les utiliser et le dire, on se fait insulter. En même temps c'est pas l'absence d'éthique qui les étouffent.

@jor Mais du coup c'est pas du technosolutionnisme? "Oh c'est bon j'vais pas me faire chier à dépenser de l'argent pour des sous-titres, activez juste l'ia".

Du coup, bof quand même.

@ZoidbergForPresident Non mais c’est pas l’ajout de ce genre de fonctionnalité qui va empêcher les gens de sous-titrer leurs vidéos, parce que, spoiler : iels le font déjà pas.

La situation actuelle c’est : des tas de contenus (vidéos, images, sites) ne sont pas accessibles.
Comment on fait concrètement pour que plus de gens puissent en profiter aujourd’hui ? L’alternative c’est quoi ? Attendre que toutes ces vidéos soient manuellement sous-titrées par des gens ? Franchement. 🙄

@jor @ZoidbergForPresident Potentiellement, ça peut aider.

Genre, tu peux partir d'un sous-titre auto-généré et le relire, plutôt que tout faire à la main.

(Pareil que l'OCR en son temps en fait, pour passer de l'image au texte).

@ZoidbergForPresident @jor

C'est ce genre de discours qui me vexe.

Non, pcq ya des millions de vidéos non soustitrés et google a changé ma vie.

Ya des gens qui ont pas les moyens de soustitrer, pas le temps, ne connaissent pas les sourds et sourdes...

Après oui ça remplacera jamais un ou une soustitreuses. Mais voilà, j'ai quelque chose qui est pas parfait et me permet de profiter des meme plaisir que vous tous et toutes. Et ça serait encore mieux si c'était collaboratif.

@snoopy @jor Est-ce vraiment le manque de soustitrage de vidéos le problème ? Les trotinettes laissées en travers sur les trottoirs ? La non-accessibilité aux PMA ?

Ou plutôt l'invisibilisation de toutes ces populations?

Je ne souhaitais évidemment vexer personne, et j'imagine que c'est mieux que rien mais, pour moi, ça reste un pansement sur un membre amputé...

@ZoidbergForPresident @snoopy @jor
Pardon, mais pour reprendre un peu ton analogie du pansement sur une jambe amputée : du coup, face à une jambe amputée, on ne fait pas de pansement compressif le temps que les secours arrivent ?
Parce que oui, les sous-titres par IA, c'est un pansement (compressif, garot, ce que tu veux qui devrait être temporaire mais en tout cas aide à ne pas clamser), et tant que les secours (les pro du sous-titre suffisamment payé'es et tout le monde formé et obligé de mettre des sous-titres et transcription avant de mettre un média en ligne) ne sont pas arrivés, on va utiliser le "pansement" des sous-titres par IA.

C'est très bien d'avoir des visions à long terme, du global, etc, mais il y a aussi le "maintenant" qui compte, parce qu'enfin on peut ne pas se priver de certaines vidéos etc, même si on aimerait que ce soit temporaire, cette solution, ou du moins qu'elle présente moins d'inconvénients par ailleurs.

Mais comme le dit Jor, ces inconvénients sont minimes vis à vis du gain pour les personnes ayant besoin des sous-titres et une goutte dans l'océan d'inconvénients globaux de tout le monde.

Donc on attend mieux, on attend aussi de ne plus être oublié'e et invisibilisé'e oui, mais en attendant on prend cette IA qui est malgré tout une sacrée avancée pour nous.

@ZoidbergForPresident @jor mais qui va dépenser de l'argent pour faire faire des sous-titres professionnels pour ses vidéos de vacances ? Le sujet c'est pas les films/séries TV, pour lesquels les sous-titres existent déjà et les sites de diffusion aussi, c'est la masse immense de vidéos que tout le monde filme...

@jor @John_Livingston Alors si, c’est pas mal gourmand. Bien plus que de décoder. Autant que d’encoder.

Maintenant ça se fait très bien en local, donc dans le respect de la vie privée, et c’est fonctionnel. Et l’utilité pour certain·es est incontestable.

Être contre par simple posture m’agace aussi. L’IA existe. Son utilisation existe. Son utilité existe. Il faut "simplement" la politiser.

@raph @John_Livingston OK, je savais pas pour la consommation. Malgré tout je pense que ça reste probablement plus faible que la plupart des jeux non ?

D’autant qu’il y a d’autres facteurs qui peuvent mitiger, comme le fait que, dans la plupart des vidéos, ça parle pas tout le temps, donc il suffit d’un filtre audio basique pour détecter la voix, et en pratique l’IA de transcription sera active qu’une fraction du temps…

@jor @raph

Ce que je constate sur Peertube, quand j'active le sous titrage automatique (avec whisper si ma mémoire est bonne), ça consomme environ autant de CPU que l'encodage vidéo (je précise qu'il n'y a pas d'accélération par GPU). En tout cas, c'est le même ordre de grandeur.

Mais comme tu le souligne, c'est pire pour 1h de jeu sur une console ou PC gaming...

@jor @raph

Bon, ça ignore la phase d'apprentissage. Mais je pense que celle-ci, contrairement aux IA génératives, peut être considérée comme terminée pour de la reconnaissance vocale. Il n'y a pas besoin de refaire en continu cet apprentissage.

Autre test: en ce moment je teste un clavier Android qui utilise un de ces modèles pour la saisie vocale. Bah étonnamment, ça ne tue pas ma batterie. Ce qui est rassurant.

@John_Livingston lequel du coup pour le clavier ?

@Gilou
https://keyboard.futo.org/

Il est super agréable, le correcteur marche bien, et la reconnaissance vocale est ok.

Je découvre aussi le projet futo qui a l'air pas mal.
https://futo.org/about/what-is-futo/

FUTO Keyboard

FUTO Keyboard is a modern, privacy-focused keyboard that runs fully offline. Enjoy swipe typing, autocorrect, predictive text, and more—no internet connection required.

@Gilou
J'ai juste dû bidouiller pour avoir accès plus facilement au point médian.
@John_Livingston ah je crois que tu en as déjà parlé en effet.. Mais c'est libre, y compris pour les données d'entraînement ?
EDIT : oui, open dataset il semble
@Gilou
Ce n'est pas une licence libre classique, c'est une licence qui interdit l'usage commercial.
Pour la reconnaissance vocale, c'est Whisper, donc bon....
@John_Livingston ah. Bon, vé regarder quand même...
@Gilou
Enfin je crois que c'est Whisper, j'ai un doute tout d'un coup
@John_Livingston @jor @raph Et d'ailleurs, ce système de sous-titrage automatique de VLC passe également par Whisper.
C'est quand même l'apprentissage de ce genre de modèles de langage qui est couteux en terme de calcul, et donc d'énergie. L'exécution de ces modèles une fois entrainés n'est pas couteux. Le tout, c'est de ne pas réentraîner tous les 6 mois un modèle 10 fois plus gros que le précédent, comme le fait OpenAI depuis un moment (au passage, Whisper, c'est d'eux).
@jor tiens, en parlant d'utilisation *utile* de l'IA, j'ai appris que le centre d'imagerie médicale près de chez moi a investi dans une IA pour assister le médecin dans l'interprétation des images. Et très rapidement ça les a aidé à détecter des cancers du sein que le médecin n'aurait pas repéré avant ça.
On est sur un autre niveau d'utilité que les IA génératives, là.
@jor merci. D'autant plus que ça ne communique pas avec l'extérieur, ça n'envoie de données personnelles nulle part, etc. Je ne vois pas comment ça aurait pu être mieux fait.
@orange_lux Oui, pour le coup j’ai l’impression qu’il y a pas vraiment grand chose de concret à reprocher (à part la consommation d’énergie donc 😒).
@jor attention aussi au fait qu'utiliser une IA ne va pas forcément impliquer un LLM et aussi qu'on peut utiliser de petits modèles de langage qui peuvent être exécutés sur la machine en local
@jor
Merci pour ton post.


Étant sourd, ça m'a fait plaisir de savoir que VLC integre un soustitrage auto et ton intervention. J'espere que les logiciels libres deviendront petit à petit plus accessible pour nous tous et toutes.

En ce moment ya
#Lokas une app de transcription créée par framasoft et j'aimerais la booster, trouver des fonds car cet outil est génial pour les réunions mais aussi pour nous au quotidien :)

Merci pour le rappel pratique @snoopy et @jor Bon rappel que généraliser est toujours abuser.

Notez la transcription texte automatiques des #podcast de la plate-forme open source #Castopod (@castopod) . Présentée par @projetslibres_podcast ici par exemple https://piaille.fr/@projetslibres_podcast/112517059149636060

cc @emeline

Podcast Projets libres ! (@[email protected])

Revivez la conférence "Créez, diffusez et interagissez. (Re)prenez le contrôle grâce au Podcast libre !" aux #jdll2024 🚀 🎧 👉 https://www.projets-libres.org/conference-creez-diffusez-et-interagissez-reprenez-le-controle-grace-au-podcast-libre/ 🎙 @[email protected] papa de @[email protected] et @[email protected], hôte de @projetslibres_podcast vous partagent leurs expériences, méthodologies et conseils pour la création de votre podcast avec des outils libres. La conférence est aussi disponible en vidéo sur #Peertube et Youtube.

Piaille
@herouelibre @snoopy @jor @castopod @emeline pour des raisons techniques, sur mes épisodes j'ai fait le choix de proposer une transcription sur WordPress et pas directement dans castopod. Avec les outils actuels faire les deux c'est beaucoup trop de travail. Par contre je propose toujours une transcription enrichie (avec des liens externes et parfois des commentaires), même sur les conférences que j'ai donné ou auxquelles j'ai participé dans les salons. C'est du boulot mais ça permet à tout le monde d'avoir accès au contenu ! Par contre j'ai clairement la volonté de mettre emded transcriptions sur castopod à terme
@projetslibres_podcast @herouelibre @jor @castopod
Interessant, merci :)

Et quels logiciels utilise-tu pour la transcription ?

Idéalement faudrait la meme chose que les conf TED.

Après, je sais pas comment marche un logiciel de transcription mais je me dis qu'il ya moyen de créer un maillage de serveur pour mutualiser leur ressource, calcul et avoir un fichier transcrit sur demande (les mettre en queue et valider définitivement, ne pas refaire la transcription)

Puis, ouvrir un mode collaboratif, style wiki, avec des personnes certifiées pour la correction, réécriture avec un truc du style weblate. Google avait supprimé les soustitres collaboratif, surement ça demande pas mal de maintenance et surveillance des modifications.

Je vais loin, déjà si ça transcrit c'est déjà bien


@emeline

@snoopy @jor @emeline @herouelibre @castopod c'est un peu artisanal de mon côté :
1. une fois l'audio terminé, je le passe soit dans whisper soit une une plate-forme propriétaire
2. je récupère la transcription en texte
3. je l'importe dans wordpress
4. je refais la mise en forme et j'ajoute les liens externes

une piste pour faire mieux :
- sortir la transcription au format srt
- l'importer dans aegisub pour faire une première correction (noms, fautes, etc)
- ça me sort une première transcription que je peux mettre dans castopod
- j'importe cette transcription dans wordpress pour finir le boulot

l'inconvénient c'est que ça demande plus de boulot!

@jor
@Florian

Ce n'est pas un peu categorique?
"Sinon ce serait facile d’arrêter pour protéger la planète, mais personne le propose, bizarrement" I
ll y a des gens qui se refusent à l'utiliser et ne vive pas "en forêt".Comme avec les GAFAM, la technique du pied ds la porte : se servir d' un besoin fondamentale ou la défense d'une minorité pour vendre sa cam puis le reste va passer.

Un "usage justifié + un "U.J"+ ...+notre surconsommation actuelle = acceleration ds le mur.

L'impact desastreux sur nos vies (servic public, protection données perso, repli sur soi...) et la protection tardive du legislateur préfigure ce qui va se passer avec cette techno.

@jor une autre critique valide est que c'est une IA de openAI nan?
@jor et puis c'est du speech to text, ça existe depuis des années sous Linux. C'est juste que le modèle a été généré par réseau neuronal, on est loin de l'IA générative...
@justinmponcet @jor Pas si loin en fait : le système utilisé par VLC est Whisper, un LLM d'OpenAI. Ce n'est pas génératif dans le sens où ça ne cherche pas à créer à partir d'un prompt, mais sous le capot, les méthodes utilisées par Whisper et ChatGPT, par exemple, sont les mêmes, à savoir un modèle de langage basé sur des réseaux de neurones spécifiques : les transformers.
@FloRicx @jor oui certes. Mais de ce que je comprends d'une part les calculs sont fait côté client et d'autre part les calculs sont moindres ? Je fais fournir whisper sur mon pc perso, et clairement ce n'est pas la mer à boire...
@justinmponcet @jor Oui, tout à fait : l’exécution d'un modèle entrainé n'est pas très couteux en terme de ressources de calcul (surtout un modèle comme Whisper, bien plus petit que ChatGPT). Ça se fait donc très bien localement, sur la machine utilisatrice.
C'est la phase d'entrainement de ces modèles qui crame la moitié de l'Amazonie, pas leur exécution.
@jor Je ne sais pas quel modèle ils vont utiliser, mais s'il était possible pour chaque vidéo sous-titrée de télécharger les sous-titres dans un référentiel commun plutôt que de les récupérer, la consommation d'énergie liée au sous-titrage n'interviendrait idéalement que la première fois.
En d'autres termes, je suis a priori d'accord avec votre idée qu'il s'agit d'un cas justifié d'utilisation de l'IA.
Il s'agirait d'incorporer la réutilisation dans le modèle pour minimiser l'impact écologique.
@kikebenlloch @jor ça utilise https://github.com/openai/whisper et pour du temps réel il faut une machine avec de l'accélération matérielle pour l'IA (un Mac récent ou un Windows AI)
GitHub - openai/whisper: Robust Speech Recognition via Large-Scale Weak Supervision

Robust Speech Recognition via Large-Scale Weak Supervision - openai/whisper

GitHub
@jor

L'énorme majorité de l'impact CO2 des IAs est dans l'entraînement: dès qu'on l'utilise il est déjà "trop tard", le mal est fait. Un peu comme pour le matériel informatique en fait, même si tu as l'impression que ton ordi est quasi au repos et ne fait rien sa construction a énormément pollué. Dans le cas des IAs génératives j'ai vu des rapports 1:1 million (l'entraînement d'un modèle consomme 1 million de fois plus qu'une requête), mais je ne saurais pas dire si c'est aussi grave pour les IAs "à l'ancienne".

C'est aussi la phase d'apprentissage qui pose de gros problèmes sociaux: c'est toujours le sud global qui se tape le travail (merci les malgaches de parler français pour faire le taff pour nous enfin merci la France pour la colonisation quoi) payé quasi rien, qui se tape les trucs les plus horribles à classifier en "gore", qui crève dans les mines etc...

Ptet qu'il faudrait en savoir un peu plus sur l'IA utilisée ici pour la critiquer correctement

@jor a les lectures des titres (putaclic) sur VLC , j'ai cru aussi a un égarement de leurs par dans la mode AI puis j'ai vu les 2 truc a qu'on demande a l'ia :
Optionnel et pas installé par défaut
Rend un service supplémentaires qui n'existerait pas sans.

(Pour info le voice to texte existe depuis des décennies et ça a été développé pour les messagerie et service de téléphone fixe)

Libre, Open source: de VLC à l'IA, et et futur...

PeerTube
@jor Un coup, je ferai un post sur l'impact écologique réel de l'utilisation modérée des "IA" par une personne lambda, parce que moi aussi ça me saoule cet argument. Pour moi c'est comme la viande : la plupart du coût énergétique est sur l'apprentissage (l'élevage pour la viande), si une personne fait quelques requêtes ça coûte peu et ne pas l'utiliser du tout c'est gâcher, et le gaspillage alimentaire c'est pire que d'acheter de la viande dans le rayon "bientôt périmé" du supermarché, parce que ça rend l'énergie dépensée vraiment inutile.

Alors oui c'est bien qu'il y ait des végétariens, et il en faudrait plus, mais je ne vais pas croire que mes achats anti-gaspillages ont un gros impact négatif sur la planète. Et dans la même logique utiliser les modèles déjà entraînés pour des usages utiles, c'est aussi améliorer leur rentabilité énergétique.

@jor N'utilisons pas l'accessibilité comme une excuse pour :
L'entraînement d'un modèle de transcription à l'aide de données probablement copyrightées (d'œuvres volées, donc), ce contre quoi les artistes et auteur-ices se battent depuis plus d'un an dans l'indifférence générale ;
L'usage du terme IA pour cette fonctionnalité, qui équivaut à un mensonge, juste pour surfer sur ce qui est une bulle économique qui foutra un tas de gens sur la paille.

Oui, cette fonction est bienvenue.
La manière avec laquelle est est implémentée et promue, beaucoup moins.

Mon niveau de confiance en VideoLAN diminue considérablement.

@jor Surtout connaissant le profil du créateur de VLC, on peut se douter que si il le fait c'est pas par conformisme
@jor Et quand on joue à des jeux récents, y a de l'IA dedans aussi notamment avec les cartes NVIDIA (DLSS & Co) et la récente PS5 Pro. Je suppose que les Jean-Michel Pas-Lu-L'Annonce y ont réfléchi avant de poster leurs messages 😬
@shaft @jor Après le terme d'IA c'est vachement fourre tout, genre presque tout jeux vidéo moderne tu as de l'IA dedans pour les NPCs, de l'anti-spam pareil tu as une grosse part d'IA histoire que ça soit pas juste des règles en dur, traducteur automatique pareil IA, …
Clavier prédictif autre que T9? On pourrais sans doute classer ça aussi comme IA vu que ça apprend.

Et LLM, peu y avoir un usage légitime, après se pose la question de l'optimisation, du contrôle dessus (ça serait con d'avoir un gros blob opaque pas auditable/modifiable), du copyright pour malheureusement une bonne partie, …

@jor
J'ai pas pris le temps d'étudier en détail son usage dans VLC. Il utilise une api fournie par openai ? Ou un moteur locale type whisper qui utilise un dataset fourni par openai comme pour framasoft ?
https://piaille.fr/@gomli/113726042595116571

Pour le coup, le dataset utilisé est-il clean ? (donc exempt de neo-esclavagisme du global south via des plateformes type https://www.mturk.com/worker pour effectuer le filtrage et le datalabeling)

gomli (@[email protected])

@[email protected] @[email protected] @[email protected] La techno qui pose problème à tout niveau, c'est les llm et tout ce qui nécessite un dataset monumental, le reste, c'est un non sujet tant ça n'a pas d'impacte humain et énergétique particulier. Whisper, la techno qu'utilise framasoft pour la transcription (application lokas à la fin de l'article), pose problème. Le promouvoir juste parce que c'est "opensource" alors que ça a nécessité l'entraînement avec 680 000 heures de source audio labellisé fournis par open ai dans des conditions opaques me laisse rêveur.. https://en.m.wikipedia.org/wiki/Whisper_(speech_recognition_system) https://github.com/openai/whisper/discussions/430

Piaille
@gomli @jor bonjour, la partie sur le data labelling m'intéresse, existe-t-il des systèmes basés sur IA respectueux des droits humains ?

@clm364 @jor

J'imagine à vérifier, les petits llm spécialisés qui travaillent sur un set de donnés très restreint dont le boulot peux être abattu librement part des personnes motivées.

@jor alors le twist supplémentaire dans l'histoire, c'est que la génération des sous titres se fait en locale, pas sur un serveur, avec un modèle minimaliste pour tenir sur les machines des utilisateurs

VLC a pas les ressources financières pour jeter de l'argent par les fenêtres comme le font les entreprises du secteur, et pour le coup c'est des gens qui font très bien leur taf