Künstliche Intelligenz kann durch präzise formulierte Prompts gezielt gesteuert werden. Ein strukturiertes Format, eine klare API-Ansteuerung und optimierte Verarbeitung großer Datenmengen sind essenziell für den effizienten Einsatz von KI-Systemen. Dieser Artikel erklärt zentrale Methoden und Konzepte, die beim Arbeiten mit KI und insbesondere bei der Kommunikation mit großen Sprachmodellen eine Rolle spielen.

Ich biete eine gratis Zertifizierung KI am Arbeitsplatz an!

JSON als strukturiertes Format für KI-Prompts

Ein strukturierter Datenaustausch mit KI-Modellen erfolgt oft über JSON (JavaScript Object Notation), da es eine maschinenlesbare und standardisierte Darstellung ermöglicht. JSON erlaubt es, Prompts systematisch an ein Modell zu übermitteln, indem es Schlüssel-Wert-Paare nutzt, um klare Anweisungen und Metadaten zu definieren.

Ein gut formatierter JSON-Prompt sollte die Rollen innerhalb des Dialogs definieren (z. B. Nutzeranfrage und KI-Antwort) sowie das zugrunde liegende Modell spezifizieren. Falsch wäre eine unklare oder unstrukturierte Eingabe, da diese das Modell nicht präzise anleitet und zu schlechteren Antworten führt.

Beispiel für eine korrekte JSON-Struktur zur KI-Kommunikation:

jsonKopierenBearbeiten{
  "model": "gpt-4",
  "messages": [{"role": "user", "content": "Erkläre JSON kurz."}]
}

Dieses Format stellt sicher, dass das Modell die Nutzeranfrage richtig interpretiert und verarbeitet.

ChatGPT über die API korrekt ansprechen

Die OpenAI-API ermöglicht den Zugriff auf ChatGPT durch HTTP-Anfragen, die meist mit curl oder anderen HTTP-Clients gesendet werden. Eine API-Anfrage enthält die nötigen Header-Informationen (z. B. den API-Schlüssel), das zu verwendende Modell und den eigentlichen Prompt.

Ein gut formatierter API-Call sollte die HTTP-Methode korrekt verwenden (z. B. POST für das Senden von Daten) und den Prompt in der richtigen JSON-Struktur einbetten.

Falsch wäre es, eine unvollständige URL oder falsche HTTP-Methoden zu nutzen, da dies zu fehlerhaften oder gar nicht verarbeiteten Anfragen führt. Auch direkte GET-Requests ohne JSON-Body oder die Nutzung inkorrekter Header würden nicht funktionieren.

Korrekte API-Anfrage für OpenAI-Modelle:

bashKopierenBearbeitencurl -X POST "https://api.openai.com/v1/chat/completions" \
-H "Authorization: Bearer API_KEY" \
-H "Content-Type: application/json" \
-d '{"model": "gpt-4", "messages": [{"role": "user", "content": "Hallo"}]}'

Diese Methode sorgt dafür, dass das Modell den Prompt korrekt verarbeitet und eine passende Antwort generiert.

Chunking: Effiziente Verarbeitung großer Textmengen

Wenn große Textmengen von einer KI verarbeitet werden sollen, kann Chunking eine sinnvolle Technik sein. Dabei wird der Text in kleinere Absätze oder Sätze unterteilt und jeweils separat an die KI gesendet. Dadurch wird die Token-Nutzung optimiert und Speicherplatz gespart.

Ein häufiger Fehler wäre es, den gesamten Text in einer einzigen Anfrage zu senden, da dies die maximalen Token-Grenzen des Modells überschreiten kann. Ebenso problematisch wäre es, den gesamten Text in eine einfache Zeichenkette umzuwandeln und eine hohe Temperatur-Einstellung zu nutzen, um detaillierte Antworten zu erhalten – dies führt zu inkonsistenten oder nicht zusammenhängenden Antworten.

Die empfohlene Vorgehensweise ist:

  1. Den Text in kleinere, logische Abschnitte unterteilen.
  2. Jeden Abschnitt separat an die KI senden und die Antworten speichern.
  3. Die Teilantworten wieder zu einem zusammenhängenden Text zusammenfügen.

Dies verbessert nicht nur die Genauigkeit, sondern auch die Konsistenz der Antworten.

Temperature-Werte und ihre Auswirkungen auf KI-Modelle

Die Temperatur-Einstellung eines KI-Modells bestimmt, wie kreativ oder deterministisch die Antworten sind.

  • Temperature = 0 sorgt für konsistente und vorhersehbare Antworten, da das Modell immer die wahrscheinlichste Antwort wählt.
  • Temperature = 1 erlaubt mehr Varianz und Kreativität in den Antworten.
  • Temperature = 1.5 führt zu noch freieren Antworten, wobei es zu unerwarteten oder unlogischen Ergebnissen kommen kann.
  • Temperature = 2 würde die Faktenlage nicht verbessern, sondern das Modell zu extrem zufälligen Antworten verleiten.

Ein Fehler wäre es, anzunehmen, dass eine höhere Temperatur die Faktenlage verbessern würde – tatsächlich kann sie das Gegenteil bewirken, indem sie die Antwortqualität verringert. Je nach Anwendungsfall sollte also eine passende Temperature-Einstellung gewählt werden.

Fazit

Ein gut strukturierter JSON-Prompt, die korrekte API-Nutzung, ein effizientes Chunking großer Texte und die richtige Temperature-Einstellung sind essenziell für die optimale Nutzung von KI-Modellen.
Werden diese Aspekte berücksichtigt, lassen sich präzisere, effizientere und kontextgerechtere KI-Antworten generieren.

Ich biete eine gratis Zertifizierung KI am Arbeitsplatz an!

Image: https://pixabay.com/illustrations/it-information-technology-ai-7625451/

Author

Ich blogge über den Einfluss der Digitalisierung auf unsere Arbeitswelt. Hierzu gebe ich Inhalte aus der Wissenschaft praxisnah wieder und zeige hilfreiche Tipps aus meinen Berufsalltag. Ich bin selbst Führungskraft in einem KMU und Ich habe berufsgeleitend an der Universität Erlangen-Nürnberg am Lehrstuhl für IT-Management meine Doktorarbeit geschrieben.

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen