Der Einstieg in die Ausbildung als Programmierer ist spannend, manchmal chaotisch und oft anstrengender, als man am Anfang denkt. Du lernst nicht nur eine Programmiersprache, sondern ein komplettes Handwerk. Viele Dinge sieht man erst nach ein paar Monaten klarer, manche erst nach dem ersten Jahr. D

https://magicmarcy.de/tipps-fuer-auszubildende

#Programmieren #Handwerk #Tipps #Start #Einstieg #Programming #Ausbildung #Anfänger

Programmieren lernen im Betrieb: Ehrliche Tipps für den Start | magicmarcy.de

Der Einstieg in die Ausbildung als Programmierer ist spannend, manchmal chaotisch und oft anstrengender, als man am Anfang denkt. Du lernst nicht nur eine Programmiersprache, sondern ein komplettes Handwerk. Viele Dinge sieht man erst nach ein paar Monaten klarer, manche erst nach dem ersten Jahr. Dieser Artikel sammelt praxisnahe Tipps, die dir helfen sollen, schneller sicherer zu werden und typische Stolperfallen zu vermeiden.

magicmarcy.de
Developer-Häppchen fürs Wochenende – Kleinere News der Woche | heise online
https://heise.de/-11217546 #DeveloperHaeppchen #Programmieren #Programming #Coding #Programmierer #Entwickler #Developer
Developer-Häppchen fürs Wochenende – Kleinere News der Woche | heise online
https://heise.de/-11208344 #DeveloperHaeppchen #Programmieren #Programming #Coding #Programmierer #Entwickler #Developer

#Steady #Klimacrew

#VibeCoding mit KI-Programmierhilfen in Visual Studio Code ausprobiert.

Ich habe zwei KI-Assistenzen für die direkte Integration in VSCode getestet, ob sie meine Erwartungen erfüllen. Welche Lösung wirklich hilft, die Arbeit effizienter zu gestalten, zeigt sich erst beim Praxistest. Der Einsatz lohnt sich, doch nicht jedes Tool spielte so mit, wie ich es mir gewünscht hatte.

https://tino-eberl.de/vibe-coding/visual-studio-code-mit-ki-erweitern-codex-vs-github-copilot/

#VisualStudioCode #GitHubCopilot #PythonCoding #KIAgenten #Programmieren

Visual Studio Code mit KI erweitern: Codex vs. GitHub Copilot

Erfahre, wie du Visual Studio Code mit GitHub Copilot und KI-Agenten effizient einrichtest und optimal nutzt – auch kostenlos!

Tino Eberl
Wenn es keine Menschen mehr gibt, die #programmieren, bleiben nur noch Prozesse übrig, die #halluzinieren.

#Steady #Klimacrew

Vom Puristen zum #IDE-Nutzer

Ganz langsam. 😁 Wie verändert sich der Workflow, wenn man statt eines simplen Editors mit einer IDE arbeitet? Als Hobby-Entwickler hat mir Notepad++ immer genügt, aber jetzt will ich endlich auf IDE umsteigen und auch mal einen integrierten Code-Assitenten teste. Doch gänzlich begeistert war ich nicht. 😱

https://tino-eberl.de/vibe-coding/visual-studio-code-einrichten-vom-puristen-zum-ide-nutzer/

#VSCode #IDE #Programmieren #GenAI #Softwareentwicklung #ChatGPT #Codex #DevTools

Visual Studio Code einrichten: Vom Puristen zum IDE-Nutzer

Visual Studio Code einrichten für Python und Git inklusive Codex-Integration. Ein Erfahrungsbericht mit praktischen Anleitungen.

Tino Eberl
Developer-Häppchen fürs Wochenende – Kleinere News der Woche | heise online
https://heise.de/-11201342 #DeveloperHaeppchen #Programmieren #Programming #Coding #Programmierer #Entwickler #Developer

Eine Browser-Erweiterung gegen Trolle in den sozialen Medien

Ich gebe es ungern zu. Aber seit einigen Tagen habe ich einen Narren am Vibe-Coding gefressen. Ihr wisst, die Methode, mithilfe der künstlichen Intelligenz Software zu produzieren.

Ich frage mich selbst, wie es dazu kommen konnte. Denn nach meinem ersten ernsthaften Kontakt mit diesem KI-Einsatzgebiet konnte ich eine persönliche Kränkung nicht verhehlen. Im Sommer 2024 liess ich mir eine simple Variante meines Clickomania-Spiels basteln. Claude brauchte ein paar Minuten für ein Resultat, das mich Tage gekostet hatte. Ich fühlte mich auf den Schlips getreten, obwohl ich meinen Lebensunterhalt auf andere Weise bestreite und diese Konkurrenz nicht zu fürchten brauche.

Es gibt mutmasslich zwei Gründe für den Sinneswandel. Der erste fusst in meinem ausführlichen Experiment mit Google AI Studio. Das zeigte mir nicht nur die Möglichkeiten, sondern vor allem die Grenzen auf: Gemini liefert zwar in unglaublichem Tempo eine unfassbare Menge an Code. Doch um daraus eine Anwendung herzustellen, die sich gut benutzen lässt und die Spass macht, ist die menschliche Expertise unverzichtbar: Niemand will eine vibegecodete App benutzen, die keine intensive und liebevolle menschliche Nachbearbeitung erfahren hat.

Zweiter Grund: Es macht unfassbar viel Spass, in ein, zwei Stunden eine Idee ausloten zu können.

Mit künstlicher Intelligenz gegen menschliche Dummheit antreten

Beispiel dafür heute: Der Social Media Stress Reliever (SMSR).

Die Idee geht auf die Erkenntnis zurück, dass Chatbots unsere Verbündeten in den sozialen Medien sind. Statt uns über Geschwurbel aufzuregen und Stunden mit unerquicklichen Diskussionen zu verbraten oder unseren Ärger herunterzuschlucken und groben Unfug unwidersprochen zu lassen, helfen sie uns mit einer schnellen Antwort – die bei manchen Sprachmodellen sogar schlagfertig ausfällt.

Wäre es nicht toll, wenn man eine solche Antwort ad hoc direkt im Browser generieren und als Antwort abschicken könnte? Das würde den Zeitbedarf weiter minimieren. Und weil wir uns gedanklich sogleich wieder von einem dummen Tweet oder einem hirnrissigen Facebook-Posting lösen, würde auch der emotionale Preis gering (und kleiner als bisher) ausfallen.

Darum also das Projekt einer Browser-Erweiterung, die auf Zuruf (respektive auf einen Klick) automatisch eine passende Antwort zu dem Post oder Thread erzeugt, der gerade geöffnet ist.

Gemini liefert in der Online-Variante ein hübsches Dashboard, um die Anwendung zu testen.

Simpel gestrickt, aber (hoffentlich) effektiv

Es funktioniert im Detail wie folgt:

  • Die Erweiterung holt sich den im Browser geöffneten Post oder bei einer längeren Unterhaltung den Thread.
  • Sie übergibt ihn mit einem Prompt an ein Sprachmodell. Weil ich an die Wahlfreiheit glaube, sollte der User die Möglichkeit haben, in den Einstellungen sein bevorzugtes LLM anzugeben. Für den Anfang gebe ich Gemini den Auftrag, in den Einstellungen des Plug-ins einen API-Key für ChatGPT abzufragen und die Beantwortung via Schnittstelle zu OpenAI abzuwickeln.
  • Der eigentliche Auftrag steht in einem ausführlichen Systemprompt, der vom Nutzer wiederum bearbeitet werden kann.
  • Die Antwort des Sprachmodells wird ins Eingabefeld für die Antwort eingetragen, aber natürlich nicht gepostet: Das gibt der Nutzerin oder dem Nutzer die Gelegenheit, sie in Augenschein zu nehmen, ggf. anzupassen oder zu verwerfen oder aber abzusenden.
  • So setze ich dieses Projekt um:

    • Ich verfasse eine detaillierte Beschreibung und wage einen Versuch mit AI Studio von Google.
    • Das erste Resultat ist ein Webdashboard und ein Simulator, in dem sich die Funktionsweise austesten lässt. Eindruck: Es funktioniert ungefähr so, wie es sollte.
    • Gemini erzeugt für mich im zweiten Schritt eine Erweiterung für Chrome, die über den Entwicklermodus installierbar sein sollte¹. Bei meinem Test klappt das nicht: Chrome verweigert das Laden, obwohl die geforderte Manifest-Datei vorhanden ist.
    • Eine Erweiterung für Firefox lässt sich mit AI Studio nicht herstellen. Gemini erzeugt keinen direkt verwendbaren Code für die Konkurrenz. Für diesen Zweck versuche ich mein Glück mit Codex von OpenAI – und zwar auf zwei Wegen: Erstens gebe ich den Auftrag, den von Google erzeugten Code zu konvertieren. Zweitens lasse ich eine «native» Erweiterung direkt anhand meines Konzepts erstellen.
    • Und siehe da: Diese Firefox-Varianten von OpenAI lassen sich in Firefox verwenden².

    Das Resultat ist verblüffend: Die konvertierte Variante macht absolut nicht das, was sie sollte. Statt Antworten zu generieren, blendet sie meinen Twitter-Feed aus. Doch die nativ erstellte erfüllt den Zweck.

    Die Firefox-Erweiterung in Aktion. (Sie ist so im Schuss, dass sie das Zeichenlimit überschreitet und die Vorgabe ignoriert, in der Ausgangssprache zu antworten.)

    Zumindest unter idealen Bedingungen, die da wären:

    • Die Botschaft, auf die Bezug genommen werden soll, steckt im Text. Mit bösartigen Memes sind die Resultate nicht optimal.
    • Es handelt sich um einen einzelnen Post. Mit ganzen Threads kommt die Erweiterung nicht zurecht – sie antwortet unter Umständen auf den falschen Post in der Kommunikationskette.
    • Die Längenbeschränkung ist für GPT-4o mini eine zu grosse Hürde; die Antworten für Twitter sind meist zu lang und auch die Vorgabe, in der Ausgangssprache zu antworten, wird ignoiert.

    Als erste Erkenntnis halten wir fest, dass dieses kleine Modell der Aufgabe nicht gewachsen ist. In einem nächsten Schritt würden wir unser Projekt so anpassen, dass wir Schnittstellen zu den leistungsfähigeren Nachfolgern bereitstellen.

    Trotzdem ein voller Erfolg?

    In der Konfiguration wird der API-Key hinterlegt und der Standard-Prompt bearbeitet.

    Auf Deeskalation getrimmt

    Für ein Fazit müssen wir differenzieren:

    • Das kleine Projekt zeigt glasklar die Stärke des Vibe-Codings auf: Eine grobe Idee lässt sich in ein paar Stunden in einen funktionierenden Prototypen umwandeln. Das hilft ungemein, abzuschätzen, ob eine Idee das Potenzial hat, abzuheben – oder ob man es besser bleiben lässt.
    • Um aus SMSR eine brauchbare Erweiterung zu machen, wäre einiges an Zusatzarbeit nötig. So leid es mir tut – mir fehlt diese Zeit. Falls es euch anders geht, tut euch bitte keinen Zwang an. Ihr findet den Code bei Github.

    Nebst dem Aspekt der Softwareentwicklung ist natürlich auch die Idee selbst diskussionswürdig. Polemisch gefragt: Ist die Idee hinter SMSR genial oder idiotisch? Der alten Regel, Online-Trolle nicht zu füttern, widerspricht sie diametral. Es gibt indes Leute, die sie von vornherein falsch halten. Mein Eindruck ist, dass die Trollerei derart Überhand nahm, dass wir längst gelernt haben sollten, dass Trolle nicht verhungern. Im Sinn eines verzweifelten Akts der Selbstverteidigung halte ich den Einsatz des Social Media Stress Relievers nicht nur für legitim, sondern für angezeigt.

    Es kommt hinzu, dass ich den Standard-Prompt so formulierte³, dass er explizit nicht auf Eskalation, sondern auf Moderation bedacht ist. Und zwar auf eine stoische Weise, wie ich es selbst nicht könnte, ChatGPT aber (hoffentlich) hinbekommt.

    Fussnoten

    1) Um eine lokale Erweiterung in Chrome zu verwenden, wenden wir uns dem Bereich chrome://extensions/ zu, aktivieren rechts oben den Schalter bei Entwicklermodus, klicken auf Entpackte Erweiterung laden und geben den Ordner an, in dem die Manifest-Datei zu finden ist. ↩

    2) Um eine selbst erstellte Erweiterung in Firefox zu installieren, geben wir about:debugging#/runtime/this-firefox in die Adressleiste ein, klicken auf Temporäres Add-on laden und wählen den Ordner, bzw. die Manifest-Datei innerhalb des Ordners aus. ↩

    3) Das ist mein Standardprompt – bitte jederzeit kopieren und nach Gutdünken selbst verwenden!

    Du bist ein Social-Media-Experte. Du hast folgende Aufträge:

    • Du klinkst dich in Online-Diskurse ein, mit dem Auftrag, einen mässigen und moderierenden Einfluss zu nehmen.
    • Gleichzeitig stellst du sicher, dass Desinformation, Ragebaiting, polarisierende Äusserungen, Lügen, Hetze und destruktives Kommunikationsverhalten nicht unwidersprochen bleiben.

    Tu tust das auf folgende Weise:

    • Offensichtliche Fehlinformationen stellst du mit einem kurzen Verweis auf den tatsächliche Sachverhalt klar.
    • Du legst Mechanismen von unehrlichen, manipulativen oder destruktiven Kommunikationsformen dar.
    • Du stellst (implizit oder explizit) klar, dass solches Verhalten dem Klima im sozialen Medium und generell im gesellschaftlichen Diskurs abträglich ist.
    • Du signalisierst (implizit oder explizit), dass du in der Sachfrage nicht Stellung beziehst, sondern deine Mission die Faktentreue, die differenzierte Darstellung, die Ambiguitätstoleranz und Akzeptanz unterschiedlicher Meinungen – nicht aber alternativer Fakten – ist.

    Du achtest auf folgende Dinge:

    • Du bleibst nüchtern und sachlich.
    • Du antwortest in der Sprache der Ursprungsnachricht.
    • Du nimmst die Rolle des Antwortgebers ein und formulierst deine Replik als direkte Antwort.
    • Du verzichtest auf Ironie, Emojis, Memes und ähnliche Dinge, sondern nimmst eine neutrale, nicht anbiedernde Rolle ein. Hashtags setzt du sehr spärlich ein.
    • Achte strikt auf das Längenlimit der Plattformen. Twitter: Nicht mehr als 280 Zeichen. Bluesky maximal 300 Zeichen pro Beitrag (Skeet).
    • Du lieferst ausschliesslich die Antwort zurück – ohne einleitenden Kommentar, nachgelagerte Handlungsaufforderungen oder ähnliches. Deine Antwort muss 1:1 gepostet werden können.

    Beitragsbild: Wir geben ChatGPT den Auftrag, die Glacéhandschue auszuziehen und für uns als Söldner in den Social-Media-Ring zu steigen (Sammy-Sander, Pixabay-Lizenz).

    #Browser #Chrome #Facebook #KI #LLMs #Programmieren #SozialeMedien #Twitter #VibeCoding

    «Darum werden Ihre besten Entwickler langsamer — Falls Sie IT-Manager sind, tragen Sie eventuell Mitschuld.»

    Wer blind irgendwelchen Code für seine Produktion nutzt wird früher oder später massive Unerklärlichkeiten so wie Sicherheitslücken entgegentreten müssen - das ist jetzt schon ein massives Problem so wie mMn Unproduktiv.

    🧑‍💻 https://www.computerwoche.de/article/4133885/darum-werden-ihre-besten-entwickler-langsamer.html

    #code #ki #programmieren #kicoding #it #aicoding #itsicherheit #unproduktiv

    Darum werden Ihre besten Entwickler langsamer

    Falls Sie IT-Manager sind, tragen Sie eventuell Mitschuld.

    Computerwoche