Besonders große Lust hatte ich nicht auf diesen Workshop. Angemeldet hattte ich mich für das eintägige Online-Seminar „KI-Tools im Redaktionsalltag nutzen“ eher, weil ich das dumpfe Gefühl hatte, dass ich muss – weil ich am Thema dranbleiben sollte und weil dies am leichtesten gelingt, wenn ich mir regelmäßig einen Workshops dazu gönne. Wenn ich immer mal wieder den neuen Fahrplan studiere, fährt der Zug nicht ohne mich ab, so die Hoffnung….
Gleichzeitig will ich nicht recht eingestiegen in den KI-Zug. Ich schreibe gerne und ich liebe fast alles daran. Recherchieren, Themen finden, Ideen durchdenken, passende Aufhänger suchen, Input sortieren und einen roten Faden dazu stricken, um dann eine Geschichte zu erzählen: Das mache ich mit Herzblut! Dazu gehört für mich nicht nur, zu lesen, nachzufragen und zuzuhören, sondern auch grübeln, sich einfühlen, abschweifen, zurückkommen und plötzlich Neues entdecken im Alten – bis zu dem Moment, in dem die vielen Informationen und vagen Eindrücke plötzlich in eine Muster fallen und sich zu einem größeren Ganzen zusammenfügen. Dem Moment, in dem ich weiß: Das wird ein guter Text.
Aber nun ja. Leider ist dieser schöne kreative Prozess nicht besonders effizient und rechnet sich in keinerlei Hinsicht. Oft fehlen Zeit, Aufträge und Publikum für die schönen Ansprüche und nicht selten werden einfach nur mittelgute Texte gebraucht – Hauptsache, sie sind schnell fertig. Und gleichzeitig muss ich ja meine Miete bezahlen. Also doch KI?
Effizienter mit KI?
Immerhin habe ich schon Tickets zu allen möglichen freien Angeboten und fahre hin und wieder Kurzstrecke, etwa um Interviews zu transkribieren, neue APs für ein Thema zu finden, Infotexte zu generieren – oder um Details zu recherchieren. Und klar, damit habe ich oft ein bisschen Zeit und Aufwand gespart. Oft jedoch habe ich auch so viel nachgebessert und überprüft, dass diese Ersparnis kaum ins Gewicht fiel.1
- In einem besonders krassen Fall habe ich mich kürzlich mit einer halluzinierenden KI völlig auf Nebenstrecken verfahren: Ich habe CoPilot nach dem Gründungsdatum der Corporate Learning Community (CLC) gefragt, weil ich einen sauberen Aufhänger für einen Text haben wollte, zugegebenermaßen am liebsten ein 15-jähriges Jubiläum. Nach ein bisschen Hin und Her und vielen Nachfragen bekam ich die Antwort, die ich haben wollte: Die KI hat sich für das Netzwerk (oder für mich persönlich?) ein wunderbar konkretes Event ausgedacht, das angeblich 2010 im Haus der Jugend in Frankfurt stattgefunden hat. Davon hatte ich noch nie gehört und habe also kräftig nachrecherchiert – und nichts gefunden. Trotzdem hat die KI das Treffen gegen meine skeptischen Nachfragen standhaft verteidigt. Schließlich habe ich CLC-Mitgründer Karlheinz dazu befragt und, ja, auch er hatte noch nichts von diesem Treffen gehört. Gleichzeitig konnte auch er das Gründungsdatum nicht klar benennen, denn die Community ist eben organisch gewachsen.2
KI-Effizienz bisher also: Schwierig. Aber vielleicht liegt es ja an mir und ich habe zu wenig Ahnung, was und wie ich sinnvoll an die Maschine delegieren kann? Um das zu überprüfen, habe ich mich also gute sechs Stunden auf die so nützlichen Tools eingelassen, die ich lieber nicht brauchen will. Und ich habe überraschend viel gelernt – denn Referent Oskar Vitlif hat einen sehr guten Job gemacht.
Neue Tools, neue Tricks …
Von den vielen, vielen Erkenntnissen und Aha-Erlebnissen, die ich mitgenommen habe, will ich hier nur ein paar festhalten, die mich besonders beeindruckt, überzeugt, überrascht oder auch belustigt haben.
- So habe ich zum ersten Mal gehört, dass es ein KI-Tool war, das die lange untergetauchte RAF-Terroristin Daniela Klette aus ihrer Anonymität katapultiert hat: Die biometrische Daten analysierende Suchmaschine PimEyes hat sie auf einem Bild auf der Website eines Berliner Yogastudios erkannt. Für Investigativ-Journalistmus zweifellos eine effiziente Unterstützung.
- Ich wurde außerdem daran erinnert, dass die Sprachmodelle (LLMs) nur menschliches Verhalten imitieren auf Basis großer Datenmengen, aber ohne zu wissen, was sie tun. Und dass diese Daten noch immer vor allem englisch sind, weshalb deutsche Anfragen oft durch eine doppelte Übersetzung (deutsche Frage -> englische Frage -> englische Antwort -> deutsche Antwort) gehen. Es wird also bis zu dreimal imitiert. Dabei kommen dann manchmal kuriose Antworten heraus – etwa auf die Frage: „Wie viele ‚R‘ sind in Erdbeere?“ Hier sagt die KI nicht selten „3“ – was für das englische „Strawberry“ ja auch stimmt.
- Erstaunlich fand ich auch, dass offenbar schon ein Foto vom Kühlschrank-Inhalt reicht, um Rezeptvorschläge zu bekommen, für das, was man mit dem Inhalt kochen könnte. Das kann sicher viel Grübelei sparen, wenn man täglich eine hungrige Familie zu versorgen hat (Effizienz!!!).
Neben den Kuriositäten nehme ich auch alltagstaugliche Handreichungen mit:
- Ein toller Hinweis war, dass jeder Chat-Bot einen Button hat, mit dem ich mir eine neue Antwort geben lassen kann, falls mir die erste nicht gefällt: Bei Gemini heißt er „Wiederholen“, bei ChatGPT „Erneut versuchen“. Zu finden ist er meist direkt unter dem Textfeld.
- Gelernt habe ich, dass ich bei allen Angeboten Standard-Prompts speichern kann, um sie immer wieder schnell einsetzen zu können (Hallo Effizienz!). Das heißt mal „Projekt“ (bei ChatGPT), mal „Gems“ (bei Gemini), mal „Raum“ (bei Perplexity) oder auch „Agent“ (bei Mistral). Zumindest ein paar sind auch immer in der kostenlosen Version möglich.
- Interessant fand ich außerdem, dass Webseiten sich vor dem Zugriff von LLMs schützen bzw. sie aussperren können. Unter wdr.de/robots.txt etwa ist zu sehen, welche KIs nicht zugreifen dürfen. Das erklärt, warum manche für mich offensichtliche Quellen in Anfragen manchmal nicht auftauchen. Allerdings funktioniert das offenbar nicht ganz in der Praxis, wie der Live-Test im Seminar bewies: Zumindest bei Perplexity erschienen dennoch Quellen vom WDR – aber möglicherweise waren die älter als die Aussperrung (die nicht rückwirkend funktioniert).
- Und noch ein toller Tipp für Transkriptionen: Neben den vielen kommerziellen Angeboten gibt es NoScribe, das OpenSource-Angebot eines Schweizer Professors. Es ist zwar nicht ganz user-optimiert, dafür aber datenschutzkonform und völlig frei – man braucht nur ein bisschen Programmier-Mut: https://github.com/kaixxx/noScribe
Meta-Tools!
Besonders spannend fand ich außerdem, dass es mittlerweile Meta-KI-Tools gibt – also KI-Chat-Bots, die meine Anfrage entgegennehmen und dann an verschiedene KI-Bots weiterleiten, ohne dass ich bei diesen einen eigenen Account haben muss. Eins davon ist von den DuckDuckGo-Anbietern, denen ich schon für die gleichnamige Suchmaschine, die meine Privatssphäre wahrt, dankbar bin: Unter https://duck.ai kann ich jetzt auch diskret bei (zumindest der kostenlosen Version von) ChatGPT anfragen! Weitere Multi-LLMs sind weniger diskret, dafür aber breiter aufgestellt. Bei vielen kann man sich einen Profi-Account anlegen, mit dem man auf mehrere kostenpflichtige LLM-Versionen zugreifen kann, was sich schnell rechnet. Diese Angebote stellt Seminarleiter Vitlif hier in seinem Blog vor: https://vitlif.de/blog/multi-llm-chatbots/
Und nun?
Da war also doch schon viel Schönes dabei. Und zwischendurch hat es sogar richtig Spaß gemacht. Mir einen ausführlichen Prompt mit Zielgruppe, Tonalität und Pi, Pa, Po auszudenken und den dann einfach als Vorlage zu speichern – das war schon cool. Hier werde ich auch sicher weiter nachdenken, wo ich vielleicht Standard-Aufgaben automatisieren kann. Vielleicht erleichtert das die Erstellung – oder das Sortieren und Aufbereiten meiner „erfühlten“ Themenideen – von Themenvorschlägen, um sie bei Zeitschriften oder Verlagen einzureichen?
Offen bleibt für mich die Frage, wie ich all die schönen Tricks und Abkürzungen wirklich in meinen Schreibflow integriere: Welche Schritte kann ich aus diesem meinem persönlichen kreativen Prozess herausnehmen, um sie an ein Large Language Model abzugeben? Und wie kann ich sie dann wieder in den Flow einfügen? Das wird noch spannend werden.
- So ging es mir übrigens auch hier wieder: Dieser Text wurde mithilfe des LLM von Claude erstellt. Und auf meine ersten Prompt lieferte das Tool – mein neues Lieblingstool! – einen wirklich schönen Text mit sehr persönlichem Wording und sogar ein paar pfiffigen Formulierungsideen. So war z. B. der Gedanke „…. lernen, die Tools zu gebrauchen, die ich gar nicht brauchen will“ original von Claude. Es war allerdings auch der einzige, den ich fast wie vorformuliert im Text gelassen habe. Den Rest habe ich mehrfach umgeschrieben. Schneller fertig als sonst wurde der Blogtext dadurch nicht … ↩︎
- Die eindeutige Antwort auf meine Frage nach dem Gründungsdatum der Corporate Learning Community gibt es folglich gar nicht. Das Netzwerk startete schon 2008 zunächst als kleine verbandsinterne Initiative und unter einem anderen Namen, ein paar Jahre später hat sich diese umfirmiert aus rechtlichen Gründen und erst weitere Jahre später hat die CLC eine eigene juristische Struktur gegründet, wieder mit leicht geändertem Namen. Das Gründungsteam hat deshalb inzwischen das Gründungsdatum festgelegt auf den Zeitpunkt, an dem zum ersten der prägenden BarCamps eingeladen wurde. Das war 2010, das BarCamp selbst fand dann dann 2011 statt. Und zwar in Darmstadt, nicht in Frankfurt. Und auch nicht im Haus der Jugend.
Besser als die OpenAI-Lösung CoPilot hat übrigens Claude die Herausforderung gemeistert, als ich ihm gestern die gleiche Frage stellte: Er hat v. a. nicht so getan, als hätte er eine eindeutige Antwort, sondern hat die eigene Unsicherheit mit mir geteilt und die eigenen Bemühungen Schritt für Schritt transparent gemacht inklusive Quellen und Zwischenergebnisse. Am Ende hat er seine Schlüsse daraus gezogen und das genau so geschrieben: „Ich schließe daraus … 2010“. Das hat mir hervorragend gefallen. ↩︎