News - Sieben praktische Tipps fuer den Umgang mit Chat GPT
Information

Sieben praktische Tipps für den Umgang mit ChatGPT

Optimieren Sie Ihre KI-Kommunikation: 7 Schlüsselstrategien für effektive Prompts im Berufsalltag

Ob ChatGPT, Dall-E oder Midjourney: Generative künstliche Intelligenz ist in aller Munde. Doch wie können Sie das Beste aus der KI herausholen und effektiv mit ihr kommunizieren? Wir geben Ihnen sieben praktische Tipps für Ihren Berufsalltag, mit denen Sie direkt bessere Prompts erstellen.

Artikel zum Hören:

0:00 0:00

Künstliche Intelligenz (KI) revolutioniert unseren Alltag. Ganz gleich, ob wir etwas bei Google suchen, Texte übersetzen lassen oder bei Amazon einkaufen. Richtig bekannt wurde KI aber erst durch den Hype um den
Chatbot ChatGPT, der im November 2022 online ging. Die auf Large Language Models (LLMs) basierende Technologie kann wie von Menschen geschriebene Texte erzeugen und wirkt wie ein menschlicher  Gesprächspartner. Nur, wie „spreche“ ich am besten mit ChatGPT & Co., um das volle Potenzial der Software auszuschöpfen? Der wichtigste Rat hierzu lautet: Effektive Prompts verfassen! Also Anweisungen, die Sie an LLMs stellen, um eine Antwort zu erhalten. Andernfalls kann die Kommunikation mit der KI eine zähe Angelegenheit werden.

Der Einsatz von generativer KI kann unseren (Arbeits-)Alltag deutlich erleichtern. Dennoch ist und bleibt der Mensch unersetzlich. Zukünftig sollte allen klar sein, wie sie Large Language Models für ihren Bereich richtig nutzen können, aber auch, dass die Ergebnisse von künstlicher Intelligenz mit menschlichem Verstand hinterfragt werden müssen.

Person - Christian Grötsch

Christian Otto Grötsch

Gründer und Geschäftsführer, dotSource SE

Nutzen Sie folgende Tipps für optimale Ergebnisse

#1: Schreiben Sie präzise Anweisungen

Die sogenannten Prompts sind die Basis einer jeden KI-Kommunikation. Damit geben Nutzende dem Programm eine Aufgabe, die es bearbeiten soll. Verwenden Sie dafür klare und präzise Anweisungen!

#2: Sie bestimmen die Rolle der KI

Mit einem Rollenspiel-Prompt tritt man mit der KI in ein simuliertes Expertengespräch. Soll sie aus der Sicht eines Finanzprofis reagieren, fokussiert sie beispielsweise mehr finanzielle Informationen und Fakten.

#3: Denken Sie an das gewünschte Ergebnis

Der Leitfaden liefert dem Programm die notwendigen Informationen zum gewünschten Format des Ergebnisses. So folgen Produktdaten einem anderen Stil als etwa ein Newsletter-Beitrag oder ein Pressetext.

#4: Liefern Sie Beispiele

Exemplarische Beispielsätze zeigen der KI, wie eine Antwort idealerweise aussehen könnte oder wie diese am besten gegliedert werden soll.

#5: Bleiben Sie mit der KI im Gespräch

Mit dem Chain-of-Thought-Prompting unterstützen die Nutzer die KI dabei, aus Eingaben logische Gedankenfolgen zu produzieren. KI ist nicht fähig, selbstständig kreativ zu denken, sondern antwortet einzig mit der wahrscheinlichsten Aneinanderreihung von Satzbausteinen, sogenannten Tokens.

#6: Berücksichtigen Sie die Datenverarbeitung

Die Nutzer entscheiden mit ihren Eingaben, auf welche Informationen die KI zurückgreift. So kann sie z.B. angewiesen werden, lediglich mit den Daten zu arbeiten, die man ihr als Anweisung zur Verfügung gestellt hat.

#7: Formulieren Sie die Hauptfrage am Ende

Ihrer Anweisung Ihr Hauptanliegen beschreiben Sie am Ende des Prompts. Damit kann die Anweisung vom Anfang verfeinert werden. Gerade wenn das Ergebnis der KI noch nicht den gewünschten Anforderungen entspricht, ist dies eine wichtige Stellschraube.

Je nach Anwendungsfall funktionieren manche Tipps besser als andere.
Für alle gilt aber: Sie können beliebig wiederholt und erweitert werden.

Glossar

  • Ein Prompt ist eine Aufforderung oder ein Anstoß. Bei Computern gibt man damit oft einen Befehl oder eine Frage ein, um eine Antwort oder Aktion zu erhalten.
  • Large Language Models (LLMs) sind Computerprogramme, die Sprache verstehen und erzeugen können. Sie werden oft verwendet, um Texte zu schreiben, Fragen zu beantworten oder Informationen zu analysieren.
  • Tokens sind kleine Einheiten oder Stücke von Texten. In der Computerlinguistik werden Sätze oft in Tokens zerlegt, um Wörter, Zeichen oder andere Elemente einzeln zu analysieren.
  • Beim Chain-of-Thought-Prompting zeigt die KI Schritt für Schritt, wie sie eine Aufgabe löst.