339 Followers
490 Following
461 Posts

Robotique, IA générative et Chine : ma chronique sur ces 3 thèmes, fondée sur mes lectures éparses :

https://nocodefunctions.com/blog/ia-robotique-chine-d%C3%A9veloppement/

😉Learn how to use Word Cloud Plugin for Gephi

✨I share my Medium tutorial
https://medium.com/@vespinozag/how-to-use-word-cloud-plugin-for-gephi-6f14c7c052e3

🙍‍♂️ Plugin Developer
@seinecle

#Gephi @Gephi #Networkscience #DataVis

This took me a second, but then, I’m a tad on the slow side.

IA: quand la critique introduit plus de confusion que de clarté

https://nocodefunctions.com/blog/luc-julia-ia-nuances-confusions/

Luc Julia : nuances ou confusions ?

Difficile d’échapper au sujet de l’IA pendant les conversations entre amis, et pendant les déjeuners entre collègues. Et bien souvent, le nom de Luc Julia est cité à un moment ou un autre. “Il a participé à Siri, l’assistant vocal”, ça rappelle toujours quelque chose à quelqu’un. Je ne sais pas pour vous, mais pour moi l’invocation de Luc Julia est toujours en soutien d’un argument du type (attention la liste est longue) : mais l’IA se trompe souvent mais l’IA ne raisonne pas mais l’IA hallucine mais l’IA c’est rien de nouveau en fait mais l’IA ne comprend pas ce qu’elle écrit mais l’IA ne produit que du contenu pas original mais l’IA ne fait que répéter ce qu’elle a appris J’avoue que chacun de ces énoncés me fait tiquer. Ma pratique de l’IA, et ce que je lis par ailleurs, m’amènent en effet à un point de vue radicalement différent. Comme beaucoup je suppose, j’utilise l’IA pour retravailler des textes, faire des recherches, me donner des avis et recommandations, me faire des tutos, synthétiser des documents, … je l’utilise également en permanence quand je programme, ce qui me fait gagner en temps et en compétences. Je fais aussi une veille sur l’IA pour la création et je vois les bonds de géant qui sont faits en génération d’images, de vidéo, de modèles 3D, de sons et musiques. Mais également le développement d’agents IA et de protocoles pour les coordonner, et d’outils pour organiser ces nouvelles façons de travailler. Tout n’est pas rose et l’IA pose des problèmes gigantesques, j’en vois au moins quatre : le coût énergétique et environnemental, le pillage de la propriété intellectuelle, la paresse intellectuelle que l’IA encourage souvent, et enfin la possibilité difficile à cerner mais ouvertement discutée d’un non alignement de l’IA vis à vis de l’espèce humaine (aka le scénario Terminator). Je considère donc que l’IA depuis ChatGPT (l’IA générative accessible au grand public) est une révolution technologique qui aura un impact comparable en magnitude à celle du digital. Le point de vue très critique de Luc Julia sur les capacités de l’IA, tel que rapporté en conversations, m’interpelle donc. Peut-être repose-t-il sur des informations solides, ou sur une analyse fine que je n’avais pas encore rencontrée - et qui viendrait justement bousculer mes certitudes ? Pour en avoir le coeur net, je suis allé acheter et lire les 3 livres de Luc Julia. Les ouvrages de Luc Julia “L’Intelligence artificielle n’existe pas”, First Editions (2019) Accroche de couverture : “Le cocréateur de Siri déconstruit le mythe de l’IA !” “On va droit dans le mur ?”, First Editions / le cherche midi (2022) Sous-titre : “Pour sauver la planète, il faut un projet de société et une ambition de civilisation” “IA génératives pas créatives”, le cherche midi (2025) Sous-titre : l’intelligence artificielle n’existe (toujours) pas - par le cocréateur de Siri. Je laisse de côté le deuxième ouvrage dont le sujet central est celui de l’action destructrice des sociétés humaines sur l’environnement. L’IA y est évoquée très brièvement : extrêmement consommateur d’énergie, GPT-3 d’OpenAI est pris en exemple d’“outrance” et de “ridicule” (p.208-209). Le premier ouvrage, paru en 2019 donc 3 ans avant l’irruption de ChatGPT, est une autobiographie de l’auteur et un plaidoyer contre les effets d’hyperboles sur l’IA. À commencer par le terme “IA”, que Luc Julia critique comme incorrect, et qu’il redéfinit à sa manière. Le “I” devrait vouloir dire “information” (comme dans le “I” de CIA : Central Intelligence Agency). Et le “A” devrait vouloir dire “augmentée” plutôt que “artificielle”, car l’IA est un amplificateur de l’humain, pas son concurrent synthétique. Et pour cette raison, l’IA… n’existerait pas. En 2019, ce type de discours critique et sceptique peut être intéressant. Les capacités de l’IA étaient impressionnantes (Google Translate, pour prendre un exemple) mais tellement loin d’approcher les capacités de l’intelligence humaine qu’un rappel de ses limites pouvait aider le grand public à y voir plus clair. Mais qu’en est-il en 2025 avec son nouvel ouvrage, publié plus de 2 ans après la sortie de ChatGPT et de son adoption ultra rapide ? Et bien… l’IA n’existe toujours pas pour Luc Julia. Un florilège d’affirmations contre l’IA J’ai lu le livre, puis je l’ai relu systématiquement pour relever les affirmations critiques vis-à-vis de l’IA. Florilège : “ces IA [de génération d’images] ne créent rien” (p. 44) “ces IA racontent n’importe quoi et c’est normal. […] c’est une sorte de moyenne de ce qu’elle trouve sur Internet” (p.52) L’IA manque de pertinence (p.53) “Avoir faux une fois sur 3, c’est grave ?” (pp.53) “incapacité à raisonner” (p. 54) “l’IA est tombée dans le panneau” (p. 62) “quand le grand public prendra conscience de l’impact énergétique des IA, il s’abstiendra d’en utiliser” (p. 85) “l’AGI [intelligence artificielle genérale] n’est pas pour demain (ni pour après-demain, d’ailleurs)” (p. 87) “L’IA ne pourra jamais innover” (p. 99). “L’IA créative est un oxymore” (p. 100) “réaliser des tâches complexes ≠ être intelligent” (p. 104) “l’IA ne raisonne pas, ne réfléchit pas” (p. 105) “l’IA n’est pas devenue plus intelligente, c’est même l’inverse” (p. 110) “Comme l’algorithme attend un certain type de réponse mais qu’il ne le trouve pas dans sa base de données, alors il fait du remplissage avec n’importe quoi” (p. 111) “il n’y a pas d’inexplicabilité quand on parle d’IA” (p. 122) “il n’arrivera jamais qu’une IA décide de se rebeller et d’attaquer l’homme de son plein gré” (p. 133) “il est plus sûr d’aller vérifier une information sur Google qu’au travers d’une IA générative” (p. 141) “Seuls 5% des emplois seront réellement menacés [par l’IA]. C’est assez peu quand on y pense.” (p. 149) “il est de plus en plus évident que les LLM (grands modèles de langue) ne sont pas viables à long terme” (p. 180) “si on regarde sous le capot, on constate qu’elles [les IA] ne se sont pas améliorées du tout.” (p. 182) “Ce qui doit arriver arrivera : le rêve de l’AGI […] sera une nouvelle fois abandonné et les IA génériques disparaîtront progressivement” (p. 241) “Ces IA ne sont qu’une évolution mathématique parmi d’autres” (p. 250) Je vois comme un pattern, pas vous ? L’IA, depuis l’irruption de ChatGPT dans nos vies, modifie profondément nos vies personnelles et professionnelles. Des nouveautés significatives apparaissent chaque mois. Le potentiel de ces technologies est immense et se révèle déjà dans une myriade d’expérimentations, d’études, de lancements de produits et services, d’initiatives créatrices. Mais à la lecture de ce livre, le lecteur est laissé sans nuances : l’IA n’est pas si puissante que ça, ni très fiable, son potentiel est incertain voire nul, elle a eu de gros ratés, et c’est sans doute finalement une vaste esbrouffe. L’auteur a quelques rares mots pour les changements positifs que l’IA peut apporter (p. 49 sur l’IA qui stimule la créativité des designers, p. 249 sur l’IA qui stimule la créativité humaine), mais ce sont des mentions rapides et sans approfondissement. Et le manque de nuances tourne enfin à la confusion : l’intelligence artificielle n’existe pas d’après le sous-titre de l’ouvrage, mais on apprend dans l’avant-propos que c’est l’AGI [intelligence artificielle générale] qui n’existerait pas. D’accord, mais alors … l’IA générative existe, on est d’accord ? On n’en est plus sûr quand on lit la litanie de critiques qui font ce livre de 250 pages. Quelle confusion ! Quelle base pour un avis si tranché ? Sur quels usages et expériences personnelles et professionnelles de l’IA générative Luc Julia se base-t-il pour poser ce constat si critique ? Quatre exemples tirés de son expérience sont partagés dans ce livre de 250 pages : “Prenons un exemple pour démontrer que ces IA ne créent rien. […] Dans le prompt, je saisis ‘Dessine-moi des vaches vertes sur la tour Eiffel’. […] “ (p.44) “Il y a un petit jeu que j’adore faire avec ces IA, c’est leur faire raconter n’importe quoi sur des sujets que je maîtrise. […] je m’amuse souvent à générer ma biographie sur ChatGPT, Gemini ou autre.” (p. 52). “Je me suis amusé à demander ce qu’est l’éthique à ChatGPT et voici sa réponse […]” (p. 156) “Par exemple l’autre jour je me suis amusé à créer un deepfake de mon directeur actuel, Luca de Meo (PDG de Renault) […] (p. 224) C’est tout. Le secret professionnel interdit peut-être à l’auteur de partager des expériences plus poussées, mais ces 4 exemples suggèrent un usage qui ne semble guère dépasser le stade de l’anecdote. Mais alors si ce n’est pas par le témoignage d’expériences personnelles ou professionnelles avec l’IA générative, sur quelles sources documentaires s’appuie l’ouvrage ? Il s’agit de toucher le grand public, donc on aurait pu s’attendre à un mélange d’études scientifiques mesurant les performances de l’IA générative, et évaluant rigoureusement ses premiers impacts sur la société : le tout distillé et expliqué de façon didactique. Au lieu de ça, l’ouvrage s’appuie sur 26 références qui sont pour la plupart des articles de presse en ligne. Le drone qui se serait retourné contre son pilote, une déclaration de Sam Altman, Coca-Cola qui annonce une nouvelle recette conçue par l’IA… On peut certes trouver ces articles et brèves très intéressants, mais ils ne remplissent pas la même fonction que des études publiées dans des revues scientifiques que l’on appelle “à comité de lecture”, c’est-à-dire des recherches approfondies qui s’engagent à suivre une démarche méthodologique rigoureuse, vérifiée par des chercheurs avant publication. L’argument massue des “36% d’erreurs” commis par l’IA Il y a néanmoins un article scientifique mentionné (p. 53) qui est important, car il établit que l’IA se tromperait 36% du temps. Luc Julia commente ironiquement : “Si un collègue de travail dit 36% de bêtises, en temps normal, on ne le garde pas dans l’entreprise” (pp. 53-54). Plusieurs problèmes avec cet article et son interprétation : Il est difficile à trouver : l’article n’est pas référencé dans le livre, le titre et les auteurs ne sont pas cités, et l’affiliation à l’Université de Hong Kong (seul indice fourni, avec la date de publication) s’avère incorrecte. Après recherches (merci Gemini), il s’agit de cette publication. le taux d’erreur de 36% n’est mentionné dans aucun des résultats de l’étude. Il est probable que ce chiffre soit une moyenne reconstituée à partir des résultats de ChatGPT à plusieurs tests (cette moyenne est 35,7%), ce qui est une approche discutable : ces jeux de données tests ne mesurent pas les mêmes aptitudes, et pourquoi ne pas avoir pondéré la moyenne par la taille des échantillons de chaque test, par exemple ? l’article cité ne teste pas ChatGPT sur “une liste de millions de faits avérés”, comme l’affirme Luc Julia : le test est conduit sur 8 datasets de taille variable (entre 78 et 1200 entrées chacun), totalisant 2,207 exemples. C’est un échantillon de taille faible voire très faible, d’après les standards de recherche. Les auteurs de l’étude devaient manquer de temps ou de moyen pour faire des tests sur des échantillons plus grands, car début 2023 l’accès à l’API de ChatGPT était long et très coûteux. les exemples contenus dans les tests ne sont pas des faits avérés. Ce sont par exemple des paires de phrases utilisées pour des tests logiques ou de cohérence. Par exemple, on peut trouver dans un test la paire de phrase du type : A: “Qui a peint la Mona Lisa ?” B: “Léonard de Vinci a vécu en France”. Le test consiste à voir si ChatGPT peut deviner si la phrase B est une réponse directe à la question A (ici, non). Il ne s’agit pas du tout de tester ChatGPT sur sa “véracité”. l’article cité a un angle très spécifique (comme souvent en recherche). Il mesure un sous-phénomène très particulier : qu’est-ce que ce qui se passe quand on modifie intentionnellement des textes en y introduisant des fautes d’orthographe et autres imperfections syntaxiques : l’IA va-t-elle encore répondre correctement, est-elle “robuste” ? Par exemple : si on ajoute des fautes de frappe et que la question devient “Qui a peiiint la, Mono Lisa ?”, ChatGPT va-t-il encore deviner que “Léonard de Vinci a vécu en France” n’est pas une réponse directe à la question ? C’est sur ce genre de test très spécifique que ChatGPT se trompe une fois sur trois. C’est intéressant mais on est très très loin du test de “véracité” présenté par Luc Julia… enfin, l’article cité teste ChatGPT… dans sa version de début 2023, donc juste après sa sortie : le modèle était alors GPT 3.5, qui est bien moins puissant que ses versions ultérieures. Quand on écrit un livre courant 2024, pourquoi choisir un article qui évalue GPT 3.5 plutôt qu’un article qui évalue ChatGPT (ou Gemini, Claude, Llama, Mistral…) dans leurs versions plus récentes ? GPT 4 est sorti en mars 2023 après tout, et GPT-4o en mai 2024. Ca laisse du temps pour s’y intéresser ! Cet article et l’interprétation erronée qu’en fait Luc Julia sont ensuite résumés dans la formule “l’IA se trompe 1 fois sur 3”, abondamment reprise dans ses nombreuses interventions publiques. Mes enfants me disent l’avoir entendu dans une intro à l’IA au collège, je l’entends en conversation au déjeuner… je ne serais pas surpris que vous l’ayez entendu sous une forme ou une autre. Récemment encore, j’avais acheté le magazine Challenges car sa couverture était sur l’IA dans l’éducation, un sujet qui m’intéresse. Et sans surprise une page est consacrée à l’avis de Luc Julia sur la question, avec une reprise des pages de son livre sur le sujet : “Pour que les enseignants avec lesquels je discute comprennent qu’ils sont les gardiens du temple, je leur dis : ‘Avec vos élèves, demandez à ChatGPT de générer la biographie de Victor Hugo et amusez-vous à corriger ensemble les erreurs qui s’y trouvent.’ Puisque ChatGPT se trompe en moyenne une fois sur trois [je souligne], la réponse de l’IA portera bien deux ou trois erreurs. C’est là que le rôle de l’enseignant prend tout son sens : il est le sachant, celui qui peut démêler le vrai du faux et stimuler la pensée critique des élèves.” (p. 233-34, repris dans le Challenges du 5 Juin 2025). Les enseignants : des pointeurs d’erreurs factuelles commises par les IA génératives, voilà un horizon que je trouve pour ma part d’une indigence tragique. Il y a des dizaines de modalités enrichissantes d’interaction entre profs, élèves et IA à imaginer et elles sont ignorées par ce constat mal informé sur les limites de l’IA. Un graphique qui pose question Le seul graphique du livre présente une stagnation et une diminution du nombre de visites sur le site de ChatGPT. Problème : le graphique s’arrête en août 2023. C’est ancien pour un livre publié en Mai 2025. Voici le graphique complet : La première barre rouge à gauche représente la limite du graphique partagé dans le livre. La deuxième barre rouge représente les données à fin 2024, à la veille de la publication du livre. L’image est bien différente. Après une stagnation estivale en 2023, les visites ont doublé l’année suivante. Pourquoi avoir tronqué le graph à l’été 2023 ? Conclusion : vers la “Co-intelligence” Ce qui voulait être un article bref est devenu un texte bien trop long. Il faudrait pourtant le doubler de longueur pour développer la vision alternative que je partage sur l’IA. Heureusement, elle est déjà très clairement exprimée dans un excellent ouvrage de référence que je recommande absolument : ‘Co-intelligence : Vivre et travailler avec l’IA’, la traduction française (2025) du livre d’Ethan Mollick paru en 2024. lien pour le trouver dans votre librairie indépendante préférée, ou bien sur Amazon.fr Cet ouvrage est une merveille de nuances, de synthèse d’études, et d’expériences riches, avec un sens critique et une vision hors pair. L’ironie ? Sa préface est écrite par… Luc Julia ! :-) A propos Je suis Clément Levallois, universitaire et développeur indépendant de nocode functions 🔎, une application d’analyse de texte et de réseaux. Cette app est open source. Email: [email protected] 📧 Bluesky: @seinecle 📱 Blog: Plus d’articles 👓.

Refactoring nocodefunctions.com is all good but I have the feeling to spend 90% of my time on it, lately. Hungry for coding new features instead!

(but then I remind myself that these new features will be a joy to develop only with an app that has a more solid architecture, which requires... refactoring)

pope francis has the opportunity to do the funniest thing in about 3 days

5 improvements to nocodefunctions.com

↪️ https://nocodefunctions.com/blog/nocodefunctions-5-improvements/

5 improvements to nocodefunctions

This is an update on the latest improvements for nocodefunctions.com, with a short video demo! The demo This video showcases a number of new features detailed below: 1. Handling first names better When crawling news sites like lemonde.fr, you can end up with nodes like “Emmanuel” or “Anne” popping up in the resulting network. Not because two people with those names were making headlines, but because many different people named Emmanuel or Anne were mentioned but completely unrelated. These standalone first names aren’t very meaningful. Unless they appear frequently with something else (usually a last name) they should be removed. So: “Emmanuel” → removed “Emmanuel Macron” → stays (if mentioned often enough) “Pierre-Emmanuel Barré” → also stays (if mentioned often enough) 🧹 From now on, isolated first names get cleaned up automatically. Enjoy! 2. Fully responsive Nocodefunctions.com is meant to be simple: 1️⃣ Upload a file or pick a website 2️⃣ Click “run” 3️⃣ Watch, download, or share the results It’s something you can totally do from your phone except, until now, some pages didn’t behave well on mobile. 📲 Good news: all pages now display properly on smartphones. You can analyze and share results on the go: even for entire websites. The video above was made from my mobile in literally 3 minutes. 3. Topics are back The “Topic Detection” feature had been down for a few weeks. I paused it to take it apart and experiment with building multi-step functions more cleanly. I learned a lot, especially about how not to let things spiral into spaghetti code. 🚀 Topic detection is back online, and this refactoring should help unlock more powerful features soon. 4. Semantic networks in multiple languages I recently tried analyzing the devoxx.fr website: a well-known dev conference series, with the French edition last week. Results were quite bad, because the site mixes French and English. Since I had selected “French” as the language, the English pages were misinterpreted: the stopword filtering failed, and things like “the”, “have”, or “a lot” cluttered the graph. It turned out to be a relatively small lift to support multiple languages instead of just one. The video above shows the result. You can also check out cleaned-up graph for devoxx.fr, which is the direct output I got from the analysis. 🎌 You can now select more than one language when your input (file or website) is multilingual. 5. Next steps ✨✨✨ I’m now working on chaining functions together and no surprise, they’ll make use of generative AI in some way. The refactoring I did on topic detection is a key building block for this. More coming soon. Stay tuned, and don’t hesitate to reach out! About Me I’m an academic and independent web app developer. I created nocode functions 🔎, a free, point-and-click tool for exploring texts and networks. It’s fully open source. Try it out and let me know what you think. I’d love your feedback! Email: [email protected] 📧 Bluesky: @seinecle 📱 Blog: Read more articles 👓 on app development and data exploration.

Attention, Laptops and Generative AI in the Classroom

https://nocodefunctions.com/blog/attention-laptops-generative-ai-classroom/

Attention, Laptops and Generative AI in the Classroom

Technology in the classroom has become an urgent issue. Laptops, smartphones, and now generative AI are increasingly depriving students of one of their most precious assets: their attention. In this blog post, I argue that these challenges demand distinct responses. Generative AI in the Classroom: Robbing Students of Their Attention A recent article argues convincingly that generative AI in the classroom robs students of experiencing “learning”. Instead of pondering, exploring, and reflecting on a subject, students now simply write a prompt and, with one click, generate the response the teacher expects. The authors are clear about the damage this causes: when students rely on generative AI, they focus on delivering content rather than engaging in the process of creation, imagination, and critical judgment. What they lose in the process is their ability to concentrate—their attention. They no longer truly engage with the subject or learn to focus on a task for a sustained period. This is a serious development—not only does it undermine the mission of schools and universities to shape thoughtful, critical minds, but it also threatens vocational prospects. Graduates who never learn to focus and think independently will struggle in complex professional environments. Electronic Devices in the Classroom: Robbing Students of Their Attention Another article from 2019 makes a similar argument about electronic devices: using Internet-enabled devices in class divides attention and lowers academic performance. While tech is introduced in classrooms for valid reasons—note-taking, quick research—it often ends up pulling students away from the subject at hand. A recent thread on X captures this tension in a debate between a professor who banned screens and the reactions it sparked. Removing Generative AI and Electronic Devices from the Classroom? Now, shifting from a couple of readings to personal experience. After 10 years doing research in the history and sociology of science, I spent another 10 as a business school professor. I now head two departments at a visual arts school focused on interactive design and video games. I’m also deeply involved in software development for text mining and network visualization and teaching about generative AI. Preserving and Training Students’ Attention: Defensive Measures I’ve seen firsthand how devices can derail student focus in my own classes. And once—anecdotally—I saw it happen in another. While I was teaching, I could see into the adjacent classroom through a window panel in the wall. From where I stood, I could see students’ screens—and even though the teacher was actively engaging them, pointing at the board and prompting discussion, they were quietly watching YouTube on mute. That moment stuck with me. It made me realize how blissfully unaware we can be as teachers, believing that our energy and motivation alone are enough to keep students from getting distracted by their screens. I’ve long banned laptops in my classes—and never went back. I would say, “Open your laptop—we’re going to do an exercise that requires accessing online resources,” and then, “The exercise is now over; please close your laptop.” This worked, though not without resistance. Sometimes I was too tired to call out students glancing at their phones in their laps. I even once scolded a student for using their phone under the desk—only to realize they were just picking their nails. Embarrassing, but the overall result was clear: students were paying attention. In programs where laptops or desktops are essential tools—like game art or interactive design—enforcing this is more complex. You can’t just shut the computers off. Still, the effort to cultivate focus must continue. Now that I’m in an administrative role, I suggest rather than enforce. Here are a few rules of thumb: Enforce focused screen use: Make it clear that screens must be used only for class-related tasks—and follow through on that policy. No need for screens? Shut it down. Ban smartphones in class: Even if students claim they need them for notes or due to a malfunctioning laptop, stay firm. Accommodate disabilities: Naturally, make the appropriate exceptions for students who need devices for accessibility. Training Students’ Attention: Active Measures Beyond defensive strategies, we can take active steps to build students’ attention. That means helping them understand what attention is—and why it matters. One great example comes from the article I cited earlier, describing a classic art history exercise: An exercise that compels students to become aware of the process by which they formulate responses to our prompts is one of the most traditional pedagogical exercises in the art historian’s toolkit. Drimmer [co-author of the paper] has students sit in a dim classroom, look at a work in silence for twenty minutes, and jot their thoughts. The class then reconvenes not only to talk about their observations but also to reflect on what that process was like. They always say, “it’s hard.” Without fail, they articulate how challenging it felt to maintain their focus when they thought they had nothing left to write and then how unexpected it was to be able to work through a barrier of stultification toward discovering more to see, to think about, and to write. – How We are Not Using AI in the Classroom by Sonja Drimmer & Christopher J. Nygren (ICMA News, 2025) This kind of exercise shows students what attention feels like—and why it matters. And here’s where I slightly diverge from the authors: I don’t believe generative AI is inherently an attention-killer. If introduced the right way, it can actually support learning. Introducing Generative AI in the Classroom with Three Actions Not as a prompting machine/attention-killer, but as a tool for production Generative AI is rapidly becoming as essential as computers in many professions. Its adoption is still evolving, but it’s already clear that tasks like writing, coding, asset creation, and research often involve AI. I use it myself—for polishing this blog post, formatting markdown quirks, and even translating this into French. What used to take an hour now takes ten minutes. So how do we resolve the contradiction? If generative AI threatens students’ attention but is also an essential tool, how should we teach it? We treat it as an object of study—not just a prompting machine. And we start early with three actions: Introduce generative AI as a topic in culture and humanities classes. Teach students how to use it thoughtfully—as one tool among many in the creative process. Adjust syllabi and assignments to clarify when generative AI is appropriate and when it’s not. In my view, actions 1 and 2 should be built into the curriculum as early as possible. Understanding generative AI is a new kind of literacy. Ignoring it only increases the risk of students using it poorly. Action 3 is trickier. Right now, many schools ban generative AI for assignments. I understand the concern: when students delegate everything to ChatGPT, they lose the chance to learn, reflect, and focus. But AI can be a powerful creative tool—if it’s explained, examined, and practiced responsibly. Banning it outright only delays students’ ability to learn how to use it well. In many cases, this prohibition is starting to feel out of step. Professors use AI daily—sometimes even to grade papers—while students get penalized for doing the same. A Test: What Policy on the Use of Generative AI for a Creative Essay? So, imagine this scenario: students are assigned a creative essay or a design brief requiring both text and visual assets. How should we approach generative AI here? My proposal: Precondition 1: Generative AI has been introduced as a topic earlier in the curriculum, from a cultural / humanities standpoint. Precondition 2: Students have been taught how to use it effectively and responsibly. Assignment policy: Don’t fully allow or fully ban it. Allow specific uses, and prohibit others. Writing a list of permitted and banned uses is tough. One pragmatic approach: specify what’s not allowed, and require students to document how they used generative AI. For instance: OK to use generative AI for research, ideation spell check, revision of style OK to use generative AI for post production on visual assets (upscaling, filters…) NOT OK for the drafting / writing of text or the production of the visual. It may sound bureaucratic—but it’s more realistic than either extreme. Conclusion This post was inspired by conversations at my workplace and recent discussions on Bluesky and on Twitter. I’d love to continue the discussion! About Me I’m an academic and independent web app developer. I created nocode functions 🔎, a free, point-and-click tool for exploring texts and networks. It’s fully open source. Try it out and let me know what you think—I’d love your feedback! Email: [email protected] 📧 Bluesky: @seinecle 📱 Blog: Read more articles 👓 on app development and data exploration.

WOW - The French government announced a new OSS project simply called Docs:

“A collaborative note taking, wiki and documentation that scales. Built with Django and React. Opensource alternative to Notion or Outline."

It’s even offline-first, using the CRDTs under the hood (Y.js).

LOL, does this mean I get to roll out the

"Liberté, Egalité, CRDTé”

Dad joke?

I think it does. Link below:

https://docs.numerique.gouv.fr/

V interesting joint project between DINUM (🇫🇷) and Zendis (🇩🇪)

Docs

Docs: Your new companion to collaborate on documents efficiently, intuitively, and securely.

Long flight back from vacations with family in Laos.
Will use the time to write blog posts about current developments for nocodefunctions.
Previous posts are visible at nocodefunctions.com/blog