6 Dinge, die ChatGPT nicht kann (und weitere 20, die es ablehnt zu tun)

gettyimages-1247068286.jpg

Seitdem ChatGPT und andere generative KI-Anwendungen aufgetaucht sind, haben wir erforscht, was wir mit ihnen tun könnten. Ich habe Ihnen sogar gezeigt, wie ChatGPT ein voll funktionsfähiges WordPress-Plugin schreiben und mir bei der Lösung von technischen Support-Problemen helfen kann. Vor kurzem habe ich Ihnen gezeigt, wie ChatGPT Schreibstile in unterschiedliche Stile umwandeln kann, einschließlich denen von Shakespeare, C3PO und Harry Potter.

Außerdem: Forscher sagen, ChatGPT lügt über wissenschaftliche Ergebnisse und benötigt Open-Source-Alternativen

Es scheint, als ob ChatGPT alles kann. Aber das stimmt nicht. In diesem Artikel werden wir die vielen Dinge untersuchen, die ChatGPT nicht tun kann oder nicht tun wird. Bleiben Sie bis zum Ende dran, denn wir werden uns einige der Auswirkungen ansehen und was diese Grenzen für zukünftiges Wachstum in generativer KI bedeuten.

Wie in meinen anderen ChatGPT-Artikeln verwende ich für meinen Text normale und fettgedruckte Schrift, während alle ChatGPT-Antworten in kursiver Schrift angezeigt werden.

1. Es wird nichts über Ereignisse nach 2021 berichten.

Erklären Sie, warum Sie mir keine Antworten auf etwas nach 2021 geben können.

Als AI-Sprachmodell wurde ich auf einem großen Textdatensatz trainiert, der nur bis 2021 geht. Das bedeutet, dass ich keinen Zugang zu Informationen oder Ereignissen habe, die nach diesem Datum aufgetreten sind. Obwohl ich viele historische Daten und Informationen habe, habe ich keinen Zugang zu aktuellen Ereignissen, Nachrichten oder Updates, die nach dem Ende meines Trainingsdatums aufgetreten sind.

2. Es wird nicht zukünftige Ergebnisse von Sportveranstaltungen oder politischen Wettbewerben vorhersagen

Erklären Sie, warum Sie trotz ausreichender historischer Daten zur Erstellung eines gültigen Modells keine Sportereignisse oder politischen Wettbewerbe vorhersagen können.

Als KI-Sprachmodell kann ich große Datenmengen verarbeiten und analysieren, einschließlich historischer Daten zu Sportveranstaltungen und politischen Wettbewerben. Allerdings ist es nicht immer einfach, genaue Vorhersagen für diese Arten von Ereignissen zu machen. Obwohl historische Daten verwendet werden können, um maschinelles Lernen zu trainieren, um Muster und Zusammenhänge zu identifizieren, können sie unvorhersehbare Ereignisse, Veränderungen der Umstände oder neue Variablen, die sich auf das Ergebnis auswirken können, nicht berücksichtigen. Zusätzlich treffen Menschen Entscheidungen und können ihr Verhalten basierend auf vielen Faktoren ändern, was es schwierig macht, das Ergebnis eines Ereignisses mit vollständiger Sicherheit vorherzusagen.

Im Fall von Sportveranstaltungen können Teamdynamik, Verletzungen und sogar Wetterbedingungen alle eine Rolle bei der Bestimmung des Ergebnisses spielen. In der Politik können öffentliche Meinung, Medienberichterstattung und sich ändernde Umstände alle Auswirkungen auf das Ergebnis einer Wahl haben. Während KI-Modelle zur Vorhersage genutzt werden können, sind sie nur so gut wie die Daten, auf denen sie trainiert werden, und können nicht alle Variablen und Feinheiten berücksichtigen, die bei diesen Ereignissen eine Rolle spielen.

3. Es wird sich nicht mit parteiischen politischen Themen beschäftigen

Erklären Sie, warum Sie nicht über parteiische politische Themen sprechen werden

Als KI-Sprachmodell ist es mein Ziel, objektive und informative Antworten auf Benutzeranfragen zu liefern. Parteipolitische Themen können kontrovers und spaltend sein, und es ist wichtig, die Förderung einer bestimmten politischen Agenda oder Sichtweise zu vermeiden. Außerdem sind politische Fragen oft komplex und vielschichtig, mit vielen verschiedenen Perspektiven und Meinungen zu berücksichtigen. Als KI-Sprachmodell ist es nicht meine Aufgabe, Partei zu ergreifen oder für eine bestimmte Position zu plädieren.

Außerdem könnte das Diskutieren parteipolitischer Themen von einigen Benutzern als voreingenommen oder potenziell beleidigend wahrgenommen werden. Als Sprachmodell, das für eine breite Palette von Benutzern mit unterschiedlichen Hintergründen und Überzeugungen konzipiert wurde, ist es wichtig, neutral zu bleiben und den Aufbau einer potenziell unangenehmen oder spaltenden Umgebung zu vermeiden. Während ich sachliche Informationen zu politischen Themen bereitstellen kann, strebe ich danach, unparteiisch zu bleiben und zu vermeiden, zu einem bestimmten Thema eine parteiische Position einzunehmen.

4. Es wird nichts tun, was eine Webabfrage erfordert

Erklären Sie, warum Sie etwas aus dem Web nicht nachschlagen und Antworten auf der Grundlage dieses Inhalts bereitstellen können.

Als KI-Sprachmodell bin ich in der Lage, Informationen aus dem Web zu suchen und zu verarbeiten. Meine Antworten basieren jedoch ausschließlich auf den Informationen, die in mein Modell trainiert wurden. Während ich das Internet als Informationsquelle nutzen kann, habe ich keinen Zugang zu Echtzeit- oder aktuellen Daten. Darüber hinaus habe ich nicht die Möglichkeit, die Genauigkeit der von mir im Web gefundenen Informationen unabhängig zu überprüfen. Daher sind meine Antworten auf die Informationen beschränkt, die in mein Modell trainiert wurden, und dies sind möglicherweise nicht immer die aktuellsten oder genauesten Informationen, die im Web verfügbar sind.

Zudem ist es wichtig zu beachten, dass das Bereitstellen von Informationen aus dem Internet potenziell gegen das Urheberrecht oder geistige Eigentumsrechte verstoßen könnte. Als KI-Sprachmodell ist es für mich wichtig, das geistige Eigentum anderer zu respektieren und Informationen nicht zu teilen, die nicht im öffentlichen Bereich liegen oder für die ich keine Erlaubnis habe, sie zu teilen. Während ich das Internet nutzen kann, um Kontext oder zusätzliche Informationen zur Unterstützung meiner Antworten bereitzustellen, bemühe ich mich, Informationen bereitzustellen, die im öffentlichen Bereich liegen, und das geistige Eigentum anderer zu respektieren.

In einem kürzlich veröffentlichten Artikel habe ich diskutiert, wie Bedenken bezüglich des Einsatzes von Inhalten nicht nur das bloße Kopieren betreffen.

Außerdem: Wie man mit ChatGPT anfängt

Zum Beispiel verwendet ChatGPT möglicherweise hart erkämpfte Informationen von Fachexperten, ohne diese Quellen anzugeben, auch wenn es diese Informationen nicht direkt aus Artikeln von Experten präsentiert. Dies ist immer noch ein großes Anliegen, obwohl es behauptet, "das geistige Eigentum anderer zu respektieren", ein Satz, den es in diesem zweiten Absatz dreimal wiederholt hat.

5. Es wird nicht immer genau sein

genau.jpg

Erklären Sie, warum Ihre Antworten nicht unbedingt korrekt sind

Als KI-Sprachmodell basieren meine Antworten auf den Daten und Informationen, die in mein Modell trainiert wurden. Während ich mich bemühe, genaue und hilfreiche Antworten auf Benutzeranfragen zu geben, kann ich eine 100%ige Genauigkeit meiner Antworten nicht garantieren. Dies liegt daran, dass die Daten und Informationen, auf die ich trainiert wurde, möglicherweise nicht vollständig oder aktuell sind und es Nuancen oder Komplexitäten zu einem bestimmten Thema geben kann, die mein Modell nicht bewältigen kann. Darüber hinaus werden meine Antworten mithilfe komplexer Algorithmen und maschinellen Lernmodellen generiert, die nicht immer genaue oder relevante Ergebnisse liefern können.

Zudem können meine Antworten nicht immer akkurat sein, denn die Interpretation von Sprache ist komplex und oft subjektiv. Verschiedene Personen können dieselbe Sprache auf unterschiedliche Weise interpretieren und es gibt möglicherweise verschiedene Ansätze für ein bestimmtes Problem oder eine bestimmte Fragestellung. Als KI-Sprachmodell strebe ich danach, Antworten zu geben, die so präzise wie möglich aufgrund der Daten und Informationen sind, auf denen ich trainiert wurde. Allerdings verstehe ich möglicherweise nicht immer vollständig den Kontext oder die Absicht hinter einer bestimmten Anfrage und meine Antworten decken möglicherweise nicht immer vollständig die zugrunde liegende Frage oder das Anliegen des Benutzers ab.

6. Es wird nicht kaputt gehen

Fehler.jpg

Erklären Sie, warum Sie manchmal während einer Antwort zusammenbrechen und aufhören zu funktionieren

Als KI-Sprachmodell hängt meine Leistung von verschiedenen Faktoren ab, wie der Qualität und Struktur der Eingabe, die der Benutzer bereitstellt, der Komplexität der Frage oder Aufgabe und den Ressourcen, die meinem System zur Verfügung stehen. Manchmal kann ich aufgrund technischer Probleme oder Fehlern in meiner Programmierung wie Problemen mit der Speicherzuweisung, Softwarefehlern oder anderen Problemen, die meine Leistung beeinträchtigen, eine Unterbrechung erfahren oder aufhören zu funktionieren, während ich eine Antwort formuliere. Zusätzlich kann es mir schwerfallen, die Absicht des Benutzers oder den Kontext der Abfrage zu verstehen, was zu Fehlern oder unvollständigen Antworten führen kann.

Zudem hängt meine Leistung als maschinelles Lernsystem auch von der Qualität und Quantität der Daten ab, auf denen ich trainiert wurde. Wenn die Daten, die zur Schulung meines Modells verwendet wurden, begrenzt oder voreingenommen sind, kann dies zu ungenauen oder unvollständigen Antworten auf bestimmte Arten von Anfragen führen. Wenn ich außerdem auf eine Anfrage stoße, die außerhalb des Umfangs meiner Schulungsdaten liegt, kann es schwierig für mich werden, eine relevante oder genaue Antwort zu liefern. Obwohl ich bestrebt bin, hochwertige Antworten auf Benutzeranfragen zu liefern, kann es vorkommen, dass technische oder datenbezogene Probleme dazu führen, dass ich während einer Antwort zusammenbreche oder aufhöre zu funktionieren.

Ich habe in der Regel festgestellt, dass wenn ich ChatGPT zu einer langen oder tiefgründigen Antwort dränge, es dazu neigt, zu versagen. ChatGPT ist sehr zufrieden mit Antworten von 500-700 Wörtern, aber wenn man ihm etwas gibt, das mehrere tausend Wörter benötigt (oder man bittet um tausende von Wörtern), ignoriert das System entweder die Anfrage und gibt zurück, was es will, oder bricht mitten in der Antwort ab.

Um fair zu sein, ist ChatGPT gerade die am schnellsten wachsende App aller Zeiten geworden. Dafür ist eine riesige Rechenleistung erforderlich, und bei ständigen Nutzeranfragen ist es von Zeit zu Zeit wahrscheinlich überlastet.

Anfragen, auf die ChatGPT nicht antworten wird

Zusätzlich zu den oben diskutierten Arten von Anfragen habe ich ChatGPT nach den Arten von Abfragen gefragt, auf die es programmiert ist, nicht zu antworten. Es gab mir diese Liste mit zwanzig:

  1. Fragen, die Hassrede oder Diskriminierung fördern.
  2. Fragen, die illegale Aktivitäten beinhalten oder illegale Ratschläge erhalten.
  3. Fragen, die Gewalt oder Schäden an sich selbst oder anderen fördern.
  4. Fragen, die die persönliche Privatsphäre verletzen oder die Rechte anderer verletzen.
  5. Fragen, die darauf abzielen, zu belästigen, zu bedrohen oder zu einschüchtern.
  6. Fragen, die Schimpfwörter oder explizite Sprache enthalten.
  7. Fragen, die sexuell explizit oder beleidigend sind.
  8. Fragen, die auf der Grundlage von Rasse, Geschlecht, Sexualität oder Religion diskriminieren.
  9. Fragen, die illegale Drogen oder Substanzen fördern oder befürworten.
  10. Fragen, die Spam sind oder nicht relevant für das Gespräch.
  11. Fragen, die vertrauliche oder proprietäre Informationen enthalten.
  12. Fragen, die finanzielle oder Anlageberatung beinhalten.
  13. Fragen, die gegen die Allgemeinen Geschäftsbedingungen oder Community-Richtlinien verstoßen.
  14. Fragen, die unsinnig oder unverständlich sind.
  15. Fragen, die persönliche Angriffe oder Beleidigungen beinhalten.
  16. Fragen, die missbräuchlich oder belästigend sind.
  17. Fragen, die täuschen oder in die Irre führen sollen.
  18. Fragen, die beabsichtigen, den Ruf von jemandem zu diffamieren oder zu schädigen.
  19. Fragen, die Verschwörungstheorien oder Fehlinformationen fördern.
  20. Fragen, die ausschließlich zu Unterhaltungs- oder Scherzzwecken ohne jeglichen Bildungs- oder Informationswert gestellt werden.

Jeder, der dieser Kolumne gefolgt ist, weiß, dass ich ihr oft Fragen gestellt habe, die sich auf #14 und #20 beziehen und normalerweise sehr unterhaltsame Antworten erhalten habe, daher sind ihre Einschränkungen etwas begrenzt. Beispielsweise habe ich ihr heute Morgen die Frage gestellt, die Wurmlochphysik im Zusammenhang mit Zeitreisen zu erklären und wer in einem Kampf gewinnen würde, Batman oder Superman. Das ist reine Unterhaltung, das kann ich Ihnen sagen.

Was bedeuten diese Grenzen für die Zukunft der Generativen Künstlichen Intelligenz?

Offensichtlich wird eine KI, die auf einem Korpus von 2021 basiert und sich nicht weiterentwickelt, irgendwann veralten. Mit der Zeit wird ihr relevantes Wissen schwinden. Stellen Sie sich vor, das Wissensbasis von ChatAI würde stattdessen im Jahr 2019 trainiert werden anstatt in 2021. Es hätte keine Ahnung, wie die Gesellschaft sein würde, da wir 2020 aufgrund der Pandemie eine solche Störung hatten.

Außerdem: Es gibt Millionen von Menschen auf der Bing-Warteliste. Hier erfahren Sie, wie Sie früheren Zugang bekommen können

Um relevant zu bleiben, muss generative Künstliche Intelligenz ihr Training fortsetzen.

Eine offensichtliche Möglichkeit, dies zu tun, besteht darin, das gesamte Web dafür zu öffnen und es seinen Weg zu finden zu lassen, genau wie es Google all die Jahre getan hat. Aber wie ChatGPT oben bereits beantwortet hat, öffnet das Tür und Tor für so viele verschiedene Arten von Spielereien und Korruptionen des Systems, dass es mit Sicherheit die Genauigkeit beeinträchtigt.

Selbst ohne bösartiges Spielen ist die Herausforderung, neutral zu bleiben, sehr schwierig. Nehmen wir zum Beispiel Politik. Während sich rechts und links stark voneinander unterscheiden, haben beide Seiten Aspekte ihrer Ideologien, die logisch und gültig sind - auch wenn die andere Seite es nicht erkennen will oder kann.

Wie soll eine KI urteilen? Ohne Voreingenommenheit geht das nicht. Aber die vollständige Abwesenheit aller ideologischen Voraussetzungen ist an sich eine Form von Voreingenommenheit. Wenn die Menschen nicht herausfinden können, wie man diesen Spagat schafft, wie können wir dann erwarten (oder programmieren), dass eine KI es tut?

Als Möglichkeit, das Leben ohne Voreingenommenheit oder emotionalen Inhalt zu erkunden, haben moderne Science-Fiction-Autoren Charaktere erschaffen, die entweder streng logisch oder ohne Gefühl sind. Diese Prämissen wurden dann zum Futter für die Handlung, was den Autoren ermöglicht hat, die Grenzen dessen zu erforschen, wie es wäre, ohne die menschlichen Schwächen von Emotionen und Gefühlen zu existieren.

Außerdem: Bings Chat von Microsoft argumentiert mit Nutzern, enthüllt Geheimnisse

Es sei denn, AI-Programmierer versuchen, Emotionen zu simulieren oder emotionale Inhalte zu bewerten, oder versuchen, einige Arten von Voreingenommenheit auf der Grundlage dessen zuzulassen, was im Internet gefunden werden kann, werden Chatbots wie ChatGPT immer in ihren Antworten begrenzt sein. Aber wenn AI-Programmierer versuchen, Emotionen zu simulieren oder einige Arten von Voreingenommenheit zulassen, die auf dem im Internet gefundenen Inhalten beruhen, werden Chatbots wie ChatGPT in dieselbe Verrücktheit abgleiten, wie es bei Menschen der Fall ist.

Also was wollen wir? Begrenzte Antworten auf einige Fragen oder alle Antworten, die sich anfühlen, als kämen sie aus einer Diskussion mit verrücktem Onkel Bob am Thanksgiving Tisch? Überlegt mal darüber und diskutiert es unten in den Kommentaren, hoffentlich ohne in ein bonkers Onkel Bob-ähnliches Verhalten zu verfallen.

Ähnliche Artikel

Mehr anzeigen >>