đź’»
Prompt Engineering Guide
  • Prompt Engineering Guide
  • Introduction
    • Introduction
    • What is an LLM
    • Soekia - What is an LLM
    • ChatGPT Models
    • What is a prompt?
    • Prompt Categories
    • Good prompting
    • Misconceptions about LLM's
  • Configuring ChatGPT
    • ChatGPT Configuration
  • Text Prompts
    • Prompt Frameworks
    • Roles
    • Prompt Cheat Sheet
    • Output Formats
    • Copy of Output Formats
    • Prompt Techniques
    • Prompt Refinement
    • Prompt Patterns
    • Temperature Parameter
  • Custom GPTs
    • Introduction to Custom GPTs
    • The GPT Store
    • Step-by-Step Guide to Creating a Custom GPT
    • Testing and Refining Your Custom GPT
    • Use Cases
    • TASKS
    • Scheduled Tasks
  • Appendix
    • Prompting Terms
    • About
    • Chorus
  • References
  • Hack and Track
  • FAQ
  • GPT4o Announcement
  • Exercises
    • Excercise: Geopandas
  • Group 1
    • Projekte
  • Write like me
Powered by GitBook
On this page
  • Common Misconceptions about LLM's
  • Verbreitete Missverständnisse
  1. Introduction

Misconceptions about LLM's

Expanded List (English Translation): LLMs as Search Engines Misconception: LLMs can be used like Google or Bing to provide current or reliable information. Reality: LLMs are not search engines; they

Common Misconceptions about LLM's

  • LLMs are Search Engines Misconception: LLMs can be used like Google or Bing to provide current or reliable information. Reality:

    • LLMs are not search engines; they provide answers based on their training data, which may be outdated.

    • They sometimes "hallucinate" information when they lack a suitable answer, leading to inaccurate or fabricated facts.

  • LLM Outputs Are Facts Misconception: Responses from LLMs are always accurate and based on verifiable facts. Reality:

    • LLMs may provide faulty, outdated, or fabricated information, especially if the training data is inaccurate or incomplete.

  • Prompts Are Reproducible Misconception: The same prompt always produces the same response. Reality:

    • LLMs may produce different results for the same prompt depending on context, model version, or internal probabilities.

  • Facts and Sources Are Traceable Misconception: LLMs always provide traceable facts with citations. Reality:

    • LLMs rarely cite sources, and the information provided is often unverifiable. Users must validate the information themselves.

  • LLMs Understand Language Like Humans Misconception: LLMs have a true understanding of language, meaning, or intent. Reality:

    • LLMs analyze patterns in data without actual awareness or understanding.

    • They "understand" words only in relation to other words, not in relation to the real world.

  • Infallible Intelligence Misconception: LLMs are always correct and provide "the best" answer. Reality:

    • LLMs are not infallible. They operate on probabilities and can make mistakes, draw illogical conclusions, or reproduce unethical content found in their training data.

  • LLMs Are Omniscient Misconception: LLMs know all the world's information. Reality:

    • LLMs are only as good as the data they were trained on. They cannot provide information that is not included in their dataset.

  • Using LLMs as Experts in Every Field Misconception: LLMs are experts in medicine, law, technology, or other specialized fields. Reality:

    • LLMs may sound convincing but lack professional training. Their responses in specialized areas should always be critically examined.

  • LLMs Cannot Be Biased Misconception: AI is neutral and free from bias. Reality:

    • LLMs can inherit biases from their training data and may amplify them in their responses, necessitating careful monitoring and adjustment.

  • LLMs Can Think Independently Misconception: LLMs can think creatively, make decisions, or plan independently. Reality:

    • LLMs generate responses based on probabilities and cannot make original, conscious decisions.

  • LLMs Are Fully Developed Products Misconception: An LLM can be used perfectly in any environment straight out of the box. Reality:

    • Many use cases require fine-tuning, additional data, and specific optimizations for effective operation.

  • LLMs Will Replace Human Workers Misconception: LLMs will soon make all creative and analytical professions obsolete. Reality:

    • LLMs are tools to assist human work, not replace it entirely. Critical thinking, contextual understanding, and empathy remain human domains.

  • Safety and Ethics Are Automatically Guaranteed Misconception: LLMs are inherently safe and free from harmful behavior. Reality:

    • LLMs can be misused (e.g., for disinformation) or have unintended negative impacts if not properly monitored.


Deutsche Version

Verbreitete Missverständnisse

  • LLM-Ergebnisse sind Fakten Missverständnis: Antworten von LLMs sind immer korrekt und basieren auf ĂĽberprĂĽfbaren Fakten. Realität:

    • LLMs können fehlerhafte, veraltete oder erfundene Informationen liefern, insbesondere wenn die Trainingsdaten ungenau oder unvollständig sind.

  • Prompts sind reproduzierbar Missverständnis: Gleicher Prompt ergibt immer die gleiche Antwort. Realität:

    • LLMs können je nach Kontext, Modellversion oder internen Wahrscheinlichkeiten unterschiedliche Ergebnisse fĂĽr denselben Prompt liefern.

  • Fakten und Quellen sind nachvollziehbar Missverständnis: LLMs liefern immer nachvollziehbare Fakten mit Quellenangaben. Realität:

    • LLMs zitieren selten Quellen, und die angegebenen Informationen sind oft nicht ĂĽberprĂĽfbar. Zusätzliche Validierung durch den Nutzer ist notwendig.

  • LLMs als Suchmaschinen Missverständnis: LLMs können wie Google oder Bing verwendet werden, um aktuelle oder verlässliche Informationen zu liefern. Realität:

    • LLMs sind keine Suchmaschinen; sie liefern Antworten basierend auf ihrem Trainingsdatensatz, der möglicherweise veraltet ist.

    • Sie erfinden ("halluzinieren") manchmal Informationen, wenn sie keine passende Antwort haben, und können dadurch ungenaue oder erfundene Fakten präsentieren.

  • LLMs verstehen Sprache wie Menschen Missverständnis: LLMs haben ein echtes Verständnis von Sprache, Bedeutung oder Intentionen. Realität:

    • LLMs analysieren Muster in Daten, ohne echtes Bewusstsein oder Verständnis.

    • Sie "verstehen" Wörter nur in Bezug auf andere Wörter, nicht in Bezug auf die reale Welt.

  • Unfehlbare Intelligenz Missverständnis: LLMs sind immer korrekt und liefern "die beste" Antwort. Realität:

    • LLMs sind nicht unfehlbar. Sie basieren auf Wahrscheinlichkeiten und können Fehler machen, unlogische Schlussfolgerungen ziehen oder unethische Inhalte wiedergeben, wenn diese in den Trainingsdaten vorkommen.

  • LLMs sind allwissend Missverständnis: LLMs kennen alle Informationen der Welt. Realität:

    • LLMs sind nur so gut wie die Daten, mit denen sie trainiert wurden. Informationen, die nicht in diesen Daten enthalten sind, können sie nicht liefern.

  • Einsatz als Experten in jedem Bereich Missverständnis: LLMs sind Experten in Medizin, Recht, Technik oder anderen Fachgebieten. Realität:

    • LLMs können ĂĽberzeugend wirken, haben jedoch keine Fachausbildung. Ihre Antworten in spezialisierten Bereichen sollten kritisch hinterfragt werden.

  • LLMs können keine Vorurteile haben Missverständnis: KI ist neutral und hat keine Vorurteile. Realität:

    • LLMs können Vorurteile aus den Trainingsdaten ĂĽbernehmen und diese in ihren Antworten verstärken. Dies erfordert bewusste Ăśberwachung und Anpassung.

  • LLMs können selbstständig denken Missverständnis: LLMs können kreativ denken, Entscheidungen treffen oder selbstständig planen. Realität:

    • LLMs generieren Antworten auf Basis von Wahrscheinlichkeiten und können keine originellen, bewussten Entscheidungen treffen.

  • LLMs sind wie fertig entwickelte Produkte Missverständnis: Ein LLM kann direkt in jeder Umgebung perfekt genutzt werden. Realität:

    • Viele Anwendungsfälle erfordern Feintuning, zusätzliche Daten und spezifische Optimierungen, um effektiv zu funktionieren.

  • LLMs ersetzen menschliche Arbeitskräfte Missverständnis: LLMs werden in KĂĽrze alle kreativen und analytischen Berufe ĂĽberflĂĽssig machen. Realität:

    • LLMs sind Werkzeuge, die menschliche Arbeit unterstĂĽtzen, jedoch keine vollständige Kontrolle ĂĽbernehmen können. Kritisches Denken, Kontextverständnis und Empathie bleiben menschliche Domänen.

  • Sicherheit und Ethik sind automatisch gewährleistet Missverständnis: LLMs sind sicher und automatisch frei von schädlichem Verhalten. Realität:

    • LLMs können missbraucht werden (z. B. fĂĽr Desinformation) oder unbeabsichtigte negative Auswirkungen haben, wenn sie nicht ĂĽberwacht werden.

PreviousGood promptingNextChatGPT Configuration

Last updated 5 months ago