Blog

KI und wir

Thema: Künstliche Intelligenz

Blog und Offener Austausch

Einladung zum nächsten offenen Austausch:

27.05.

14:00 | Thema: Transkribieren mit KI

Eine kleine Sammlung von Links, Tips und Ressourcen rund um das Thema KI, die im Laufe der Auseinandersetzung entstanden ist und weiter wachsen wird: 

Der Blog und offene KI-Treff sind Teil des Projekts „Generative KI und ihre Bedeutung für die Erwachsenenbildung“. Das Projekt wird gefördert vom Ministerium Ministerium für Arbeit, Soziales, Transformation und Digitales RLP

Im Rahmen unseres letzten KI-Treffs haben wir uns mit zwei Plattformen auseinandergesetzt, die vielleicht am ehesten als „Meta-Tools“ bezeichnet werden können: Poe und Future Tools. Beide Anwendungen ermöglichen auf verschiedene Art den Zugriff auf eine Vielzahl von KI-Anwendungen über eine zentrale Seite, wodurch sie besonders nützlich für alle sind, die die neusten KI-Entwicklungen testen wollen, ohne stundenlang zu recherchieren.

Poe: Eine Plattform, viele KI-Gesprächspartner

Poe ermöglicht es Nutzer:innen, verschiedene KI-Sprachmodelle wie GPT, Claude, Gemini und andere über eine einzige Plattform zu nutzen. Wie auch bei ChatGPT chattet man bei Poe mit der KI, allerdings hat man hier die Wahl, mit welcher. Anstatt dass man zwischen verschiedenen Websites oder Diensten wechseln oder sich zahlreiche neue Nutzerkonten anlegen muss, um mit unterschiedlichen KI-Modellen zu interagieren, findet man bei Poe zahlreiche bekannte KIs zentral vereint. Beispielsweise kann man bei Poe auch mit Claude chatten, einem beliebten Sprachmodell, das ansonsten aus Europa nicht benutzt werden kann. Einige leistungsstarke Modelle sind dabei nur für Abonnenten zugänglich, beispielsweise GPT-4, aber prinzipiell ist die Nutzung von Poe kostenlos. Nutzer:innen bekommen täglich Credits zugeteilt und jede Nachricht an einen KI-Bot kostet eine bestimmte Anzahl Credits, die im Chatfenster angezeigt wird. Dabei variieren die Credit-Kosten pro Bot zwischen ca. 30 bis 200 Credits.

Alte bekannte und individuelle Anpassungen: Die KI-Bot-Zentrale

Die zentrale Stärke von Poe.ai liegt in seiner Nutzerfreundlichkeit und Zugänglichkeit. Durch die Zusammenführung verschiedener KI-Chatbots auf einer Plattform müssen die Nutzer:innen nur ein Konto erstellen und verwalten. Diese Integration verschiedener KI-Dienste in eine einzige Benutzeroberfläche vereinfacht den Umgang erheblich, zumal neben Text-KIs auch Bild-KIs wie Stable Diffusion angeboten werden. Daneben bietet Poe aber einige weitere praktische Vorteile. Wie sonst nur bei kostenpflichtigen Angeboten wie ChatGPT 4.0 (Abo), kann man bei Poe immer Dateien in den Chat hochladen, mit denen der jeweilige Bot dann umgehen soll. Man kann andere Bots in eine Unterhaltung miteinbeziehen – z.B. eine Bild-KI in einen Chat mit einer Text-KI, wie ChatGPT 4.0 es mit Mentions erlaubt.

Mit das spannendste Feature von Poe dürfte aber sein, dass Poe das erstellen eigener Bots ermöglicht, und zwar auch für Nutzer:innen mit kostenfreien Konten. Über die spannenden Möglichkeiten von personalisierten Bots haben wir schon mal gesprochen (Flexible KI-Assistenten: Custom GPTs in ChatGPT 4.0) und Poe bietet einen spannenden Einstieg in diese Optionen. Bei der Bot-Erstellung wird zunächst ein Basis-KI-Modell gewählt: Soll der Bot auf der Grundlage von GPT, Claude, Gemini usw. funktionieren? Der Bot bekommt einen Namen und dann hinterlegt man den Prompt, der den eigenen Bot auszeichnet, also die Handlungsanweisung, die das Verhalten des Bots maßgeblich bestimmt. Da es hier, anders als bei ChatGPT, keine Begleitung für diesen Prozess gibt, lohnt sich vorab eine Recherche, um einen möglichst effektiven Prompt für den eigenen Bot zu hinterlegen. Zuletzt kommt der spannendste Aspekt eigener Bots: Man kann auch hier Dateien hochladen und sie werden als sogenannte „Wissensquelle“ hinzugefügt. Auf diese Art bietet man dem Bot Zugriff auf spezifische, individuelle Inhalte. So kann man den Bot für die eigenen Inhalte schulen, mit denen die Basis-KI-Modelle sich vielleicht weniger gut auskennen.

Diese selbstgebauten Bots funktionieren nach demselben Bezahlprinzip: Jede Nachricht kostet die Anzahl von Credits, die auch eine Nachricht an das jeweilige Basis-Modell kostet. Sie können privat bleiben oder veröffentlich und mit der Community auf Poe geteilt werden. Poe bietet sogar die Möglichkeit, die Nutzung der selbstgebauten Bots zu monetarisieren. Auch die Option, die Bots öffentlich zu teilen, macht Poe als Plattform spannend, denn zahlreiche User:innen teilen dort Bots zu allen möglichen Szenarien und Anwendungsfällen. Neben den bekannten Basis-KI-Bots kann man also seine Unterhaltung auch direkt mit einem nutzer-konfigurierten Bot beginnen. Durch diese Bot-Building-Option bietet Poe Zugang zu einer der spannendsten KI-Funktionen, ohne dass dafür ein Abo abgeschlossen werden muss.

Future Tools: Zugang zu einer breiten Palette von KI-Anwendungen

Future Tools etabliert sich als Datenbank, sogar fast schon als eine Art Suchmaschine für KI-Tools und stellt damit eine wertvolle Ressource für jeden dar, der spezifische KI-Anwendungen sucht. Die Plattform listet fast 3000 verschiedene KI-Tools auf, die von einfachen Chatbots bis hin zu komplexen Analysewerkzeugen reichen. Man kann einfach nach bestimmten Stichworten suchen und erhält alles, was auf der Plattform zum Thema gelistet ist. Die Einträge linken dann jeweils auf die KI-Anwendung.

Der größte Nutzen von Future Tools liegt in seiner umfassenden Filterfunktion, die es ermöglicht, nach Thema, Einsatzbereich sowie zwischen kostenlosen und kostenpflichtigen Optionen zu suchen. Dies macht es besonders praktisch für Benutzer, die gezielt nach KI-Lösungen suchen, die auf ihre spezifischen Bedürfnisse zugeschnitten sind. Die Plattform dient als zentrale Anlaufstelle, um die breite und oft unübersichtliche Landschaft der KI-Tools zu navigieren. Derzeit erscheint es einem manchmal, als würden täglich neue KI-Tools auftauchen, und es ist schwer, mit neuen Entwicklungen Schritt zu halten. Future Tools ist daher als Anlaufstelle sehr zu empfehlen, um immer neue Tools zu entdecken.

Wir haben in unserer Diskussion im KI-Treff großes Potenzial in der Weiterentwicklung dieser Meta-Tools gesehen und sind gespannt darauf, wie uns der Umgang mit KI in Zukunft weiter erleichtert und noch besser erschlossen wird durch Angebote wie Poe und Future Tools.

Beim letzten KI-Treff ergriffen wir die Gelegenheit, zwei nicht mehr ganz neue KI-Werkzeuge genauer zu betrachten, die versprechen, uns die oft etwas lästige Alltagsaufgabe des Protokollierens abzunehmen: den Zoom AI Companion und Fathom AI. Wir betrachten Kosten, Zugänglichkeit und Zuverlässigkeit dieser Tools.

Zoom AI Companion: KI-Begleitung im und nach dem Meeting

Zooms Companion wurde schon im vergangenen Jahr veröffentlicht, hatte aber in der Startphase große Probleme mit Deutsch bzw. anderen Sprachen als Englisch. In den Monaten seitdem hat sich aber einiges getan und der Companion kann inzwischen auch Meetings auf Deutsch gut verarbeiten. Wir haben uns den Companion also nochmal vorgenommen und getestet, was er inzwischen kann. Dabei haben wir uns vor allem auf die protokollierenden und zusammenfassenden Funktionen konzentriert.

Um Zugriff auf die KI-Funktionen von Zoom zu haben, braucht man ein kostenpflichtiges Zoom-Abo. Im Basic-Modell ist der Companion nicht enthalten. Wer das Abo hat, hat automatisch Zugriff: Unter „Kontoverwaltung“ finden sich die entsprechenden Einstellungen, um den Companion zu aktivieren. Praktisch ist natürlich, dass die Eigenentwicklung von Zoom auch für die bestmögliche integration im Meeting sorgt, man braucht keine externen Tools, offenen Fenster, eingebundenen Plugins o.Ä., sondern bekommt einfach einen neuen Button im Meeting, neben den anderen Zoom-Kontrollelementen (Kamera, Ton, Breakout usw.). Wenn aktiviert, können Teilnehmer:innen des Zoom-Meetings mit dem Zoom Companion chatten wie mit einem Chatbot und Fragen zum laufenden Meeting stellen – Was wurde bisher besprochen? Wurde mein Name erwähnt? Welche Aufgaben wurden bisher festgehalten? Es kann sogar eingestellt werden, dass später hinzukommende Teilnehmer:innen auch rückwirkend Fragen zu dem Teil des Meetings stellen können, den sie verpasst haben.

Die vielleicht noch spannendere Funktion des Companions ist allerdings die sogenannte intelligente Zusammenfassung, die man auch direkt im Meetings starten kann. Mit dieser Funktion protokolliert der Companion automatisch das gesamte Meeting. Im Anschluss an dauert es einige Minuten, dann kann die Zusammenfassung im eigenen Zoom-Konto abgerufen werden. Automatisch erzeugt die KI hierfür thematisch gegliederte Abschnitte aus den Themen des Meetings und fasst darunter das besprochene zusammen. Zudem endet die Zusammenfassung mit einer Auflistung aller vom Companion erkannten Aufgaben, die sich eventuell aus der Besprechung ergeben haben. Diese Zusammenfassung kann man entweder automatisch an alle Teilnehmenden senden lassen oder zunächst direkt im Zoom-Konto händisch nachbearbeiten (dazu würden wir, nach unseren Tests, unbedingt raten).

Das klingt alles toll – aber wie gut funktioniert das? Ohne die Begeisterung direkt dämpfen zu wollen: Die Ergebnisse sind durchwachsen. Die Fragen, die man während des Meetings an den Companion stellen konnte, wurden im Schnitt bei unserem Ausprobieren ganz gut beantwortet. Allerdings kann man sich eindeutig nicht alleine auf die Informationen hier verlassen, weil die KI doch immer wieder nicht ganz verstanden hat, was besprochen wurde und die Fragen falsch beantwortet. Für die intelligente Zusammenfassung gilt im Grunde dasselbe. Sie funktioniert sehr gut als Gedächtnisstütze, als Stichpunkte für ein selbst erarbeitetes Protokoll bzw. als Rohfassung, mit der man sich noch gründlich auseinandersetzen muss. Die Herausforderung für die KI besteht vor allem darin, die wirklich wichtigen Aspekte eines Gesprächs präzise zu erkennen, was vermutlich daran liegt, dass dem Companion das genaue Thema der Veranstaltung nicht bekannt ist. Den Kontext des Meetings im Gespräch nochmal klar und deutlich zu benennen, könnte hier Abhilfe schaffen und die Ergebnisse verbessern.

Fathom AI: Aufzeichnung mit KI-Analyse

Neben Zoom Companion als nativer Lösung für automatisierte Protokolle gibt es zahlreiche andere Apps und Tools, die dasselbe versprechen. Ein Beispiel dafür ist Fathom, ein ziemlich ausgereiftes Angebot für Meeting-Zusammenfassungen. Fathom kann in einer kostenlosen Version ziemlich umfangreich genutzt werden und zwingt nicht zu einem kostenpflichtigen Abo, lockt aber mit vielen praktischen Funktionen in der Premium-Version. Anders als beim Zoom Companion muss man für Fathom den Fathom-Bot als Meeting-Teilnehmer hinzufügen und das Meeting vollständig (mit Video) aufzeichnen. Diese Aufzeichnung steht einem dann im Fathom-Konto zur Verfügung und in der kostenlosen Version hat man die Option, sich eine eher stichpunktartige, chronologische Zusammenfassung des Meetings anzuschauen. Daneben kann man sich auch das gesamte Transkript der ganzen Veranstaltung anzeigen lassen und durchsuchen, wobei Fathom dann immer auch die dazu passende Stelle in der Video-Aufzeichnung anzeigt. Während des Meetings kann man Fathom ein Signal geben, wenn man etwas, was gerade gesprochen wird, als „Highlight“ markieren möchte.

An sich hat Fathom spürbar weniger Probleme damit, die Inhalte eines Meetings zu erkennen und passend wiederzugeben. Allerdings kommt Fathom mit einigen anderen Nachteilen. Der größte ist sicherlich, dass die Anwendung vollständig auf Englisch funktioniert und dass auch die Zusammenfassung des Meetings automatisch auf Englisch generiert wird. Wir haben keine Möglichkeit gefunden, das zu ändern. Im Gegensatz zur intelligenten Zusammenfassung von Zoom Companion, deren Ausgabe schon dicht an ein Fließtext-Protokoll herankommt, strukturiert Fathom eben viel kleinteiliger und knapper. Auch hier ist man also darauf angewiesen, selbst umfangreich mit dieser Gedächtnisstütze weiterzuarbeiten und die Formulierungsarbeiten selbst zu übernehmen.

Abschließende Gedanken: Intime Räume und automatische Protokolle

Wir fahren stellenweise beeindruckt von unseren Tests, aber noch längst nicht restlos begeistert. Als Gefühl blieb aber zurück, dass sich in den kommenden Monaten auf dem Gebiet von automatisierten Zusammenfassungen für digitale Meetings noch einiges tun wird. Besonders von Zoom Companion kann man sicher erwarten, dass er in kurzer Zeit noch um einiges besser werden wird. Das automatische aufzeichnen und auswerten von Gesprächen ist sicher eine Stärke von KI, die in Form von KI-Protokollen noch viel Potenzial hat, zeitraubende Alltagsaufgaben zu verkürzen.

Zu bedenken ist allerdings, wie man die Tools einsetzt. Zoom Companion lässt sich automatisch zu jedem Meeting starten – dazu würden wir nicht raten. So entstehen keine intimen, vertrauensvollen Gesprächsräume mehr, jedes Wort könnte potenziell im Protokoll landen. Stattdessen würden wir empfehlen, an passender Stelle transparent zu kommunizieren, dass man ab diesem Zeitpunkt den Zoom Companion einschaltet und dieser dementsprechend als Chatbot zur Verfügung steht – und die Zusammenfassung übernimmt, sodass alle Teilnehmenden wissen, wenn ihre Beiträge protokolliert werden. Insbesondere ist das relevant, weil Zoom Companion eben noch Schwierigkeiten hat, private und fachliche Äußerungen zu trennen und, anders als ein:e menschliche:r Protokollant:in, bemüht ist, alles gesagte festzuhalten.

Für die Verwendung von Fathom ist die Zustimmung der Teilnehmenden ohnehin unumgänglich, da Fathom eine Videoaufzeichnung des Meetings macht und Zoom allen Teilnehmenden automatisch die Wahl lässt, ob sie das Meetings verlassen wollen, wenn sie nicht mit der Aufzeichnung zufrieden sind. Diese videobasierte Art des protokollieren ist noch weniger geeignet für intime Räume und führt, unserer Meinung nach, eher zu sterilen Settings – trotz aller Vorteile von Fathom hat sich auch deswegen für uns der Einsatz nicht ganz stimmig angefühlt.

Für die Zukunft bleiben noch viele weitere Tools zum Thema KI-Protokolle zu testen. Der Zoom Companion bietet zudem noch weitere KI-Funktionen, die mit Zoom-Elementen wie dem fortlaufenden Meeting-Chat usw. interagieren, um die es uns hier nicht ging. Spannend wäre auch, wie die Zusammenarbeit zwischen den Ergebnissen einer protokollierenden KI und beispielsweise ChatGPT funktionieren kann. Kann ChatGPT automatisch protokollierte Stichworte zu einem guten Protokoll umschreiben? Gibt es in ChatGPT 4.0 vielleicht schon Custom GPTs (hier haben wir Custom GPTs besprochen), die auf Protokolle hin trainiert sind – oder wie könnte man selbst ein solches Custom GPT erstellen? Diese Fragen behalten wir im Hinterkopf, um sie an passender Stelle nochmal einzubringen im KI-Treff.

Die kostenpflichtige ChatGPT-Version 4.0 bietet einiges an spannenden Möglichkeiten, die über ChatGPT 3.5 hinausgehen. Besonders spannend wird es, wenn wir über Custom GPTs sprechen – maßgeschneiderte Versionen von ChatGPT, die spezifisch für individuelle Anwendungsfälle eingesetzt werden. Aber wie macht man eigentlich ein GPT und welche Vorteile hat man davon?

Ein Custom GPT erstellen

Wer ein Abo von bei OpenAI und damit Zugang zu ChatGPT 4.0 hat, findet links in der Seitenleiste ganz oben den Punkt „GPTs erkunden“. Darunter findet sich dann oben rechts der Button „Erstellen Sie eine GPT“. Außerdem bietet die Überblicksseite zahlreiche vorgefertigte GPTs. Hier kann man sich inspirieren lassen, GPTs von Anderen ausprobieren und speichern.

Aber viele Zusammenhänge der Erwachsenenbildung sind sehr spezifisch und nicht durch vorgearbeitete GPTs abzudecken. In unserem offenen KI-Treff haben wir die Möglichkeiten getestet, die sich mit eigenen GPTs eröffnen. Wie geht man also am besten vor?

  • Konkrete Zielsetzung: Damit ein Custom GPT mehr kann als das „normale“ ChatGPT, muss der Einsatzbereich sehr klar sein. Was wünscht man sich von der KI? Was soll sie wissen, wobei soll sie helfen?
  • Option „Create“: Die erste Option, die sich bei der Erstellung eines GPTs öffnet, ist ein Dialogfenster mit ChatGPT. Hier kann sehr einfach im Gespräch ausgelotet werden, was das eigene GPT können soll. Hier wird im Gespräch auch ein Name und ein Bild zur Wiedererkennung generiert.
  • Option „Configure“: Alles, was bei „Create“ eingegeben wird, erscheint automatisch auch im Tab „Configure“. Der Tab kann aber auch direkt angesteuert werden, um gezielt Anweisungen fürs eigene GPT zu hinterlegen.
  • Wissen hinterlegen: Unter dem Tab „Configure“ findet sich auch mit die wichtigste Funktion der Custom GPTs. Hier können als „Knowledge“ Dateien hochgeladen werden, die das Wissen des GPTs darstellen. Das ist entscheidend, weil der Chatbot so quasi mit eigenen Dateien trainiert werden kann – mit Wissen, womit sich Standard-ChatGPT nicht auskennt. Sobald eigene Dateien hochgeladen wurden, findet sich ganz unten im Fenster (unter „Additional Settings“) die Einstellungsmöglichkeit, die Konversationen mit diesem GPT nicht für OpenAIs Verbesserungen uns weitere KI-Trainings zur Verfügung zu stellen.
  • Fähigkeiten einstellen: GPTs können das Internet durchsuchen, Bilder erstellen und Code interpretieren. Die dritte Option, Code interpretieren, ist per Default zunächst deaktiviert. Sie sollte unbedingt aktiviert werden, da sie die Möglichkeit gibt, im Gespräch Dateien zu analysieren oder zu erstellen.
  • Zuletzt kann rechts oben die eigene Entwicklung gespeichert werden, wobei zwischen privater Veröffentlichung und Veröffentlichung im GPT-Pool von OpenAI gewählt werden kann.

Eigene GPTs einsetzen

Wir haben verschiedene Ideen diskutiert, wie eigene GPTs gewinnbringend genutzt werden können. Dazu gehören vor allem alle Arbeiten, die einen spezifischen inhaltlichen Hintergrund fordern. Hier können dann die entsprechenden Inhalte hochgeladen werden (eigene Notizen, Richtlinien und Vorgaben, Begriffsdefinitionen, Daten-Tabellen etc.) und im Laufe der Arbeit als Kontext befragt werden. Beispielsweise kann ein GPT entwickelt werden, welches beim Marketing eines länger laufenden Projekts mit mehreren Veranstaltungen und Kanälen genutzt werden soll. Das GPT kann die Projektinhalte, die Konzeption, die Zielgruppe, die bespielbaren Kanäle und Informationen zur Einrichtung, die die Kampagne umsetzen möchte eingespielt bekommen – zudem können Stilbeispiele mitgegeben werden. Dieses GPT kann dann im ganzen Projektverlauf konsultiert werden, um Marketing-Ideen und -Inhalte für verschiedene Plattformen zu generieren oder Feedback auf Marketing-Entwürfe zu geben.

Auch bei der Projektideen-Entwicklung kann ein eigenes GPT helfen. Wenn Förderrichtlinien und Anforderungen für einen bestimmten Projektrahmen sowie inhaltliche Überlegungen und Hintergründe als „Knowledge“ zur Verfügung gestellt werden, kann ein Custom GPT damit spezifische Vorschläge machen, Ideen weiterentwickeln und eigene Antragsentwürfe gegen potentielle Richtlinien gegenprüfen. Daneben können GPTs beispielsweise auch mit umfangreichen, unübersichtlichen Datensätzen wie Excel-Tabellen gefüttert werden, um die Analyse und den Zugriff zu erleichtern. Dabei (wie bei allen Beispielen) ist natürlich insbesondere an den Datenschutz zu denken.

Wie es weitergeht

Mit diesen paar Beispielen ist sicher nicht annähernd ausgeschöpft, was Custom GPTs für unsere täglichen Arbeiten leisten können. Bestimmt werden wir zu einem anderen Zeitpunkt im KI-Treff darauf zurückkommen. Vielleicht fällt dem Einen oder der Anderen auch auf, dass sich im „Configure“-Tab noch die Option „Actions“ finden lässt. Hier können individuell Schnittstellen zu anderen Anwendungen mit OpenAPI-Schnittstelle hinterlegt werden. Klingt kompliziert? Je nach Einsatz ist diese Einstellungsmöglichkeit wirklich nicht so easy wie die bis hierher vorgestellten. Deswegen bleibt das Thema „Actions“ auf der Agenda für zukünftige KI-Treffs – und damit für einen zukünftigen Post.

Sowieso

KONTAKT

Verknüpfen Sie sich mit uns!