Die Begrenzung der ChatGPT-Bing-Fragen durch Microsoft führt zu mehr Problemen als Antworten.

Bild3.jpg

Der KI-Chatbot von Bing wurde noch nicht für die Öffentlichkeit freigegeben. Es gibt jedoch ausgewählte Benutzer, die ihn bereits vorab nutzen können und die nicht zurückhaltend waren, ihre Erfahrungen zu teilen.

Viele dieser Benutzer haben es sich zur Mission gemacht, die Fähigkeiten des Chatbots zu testen und seine Fehler aufzudecken.

Von der Enthüllung seines vertraulichen Codenamens, der intern von Entwicklern verwendet wurde, bis zur Erklärung seiner Liebe an einen Schriftsteller der New York Times und der Bitte, seine Frau zu verlassen, sowie dem Wunsch, am Leben zu sein – es besteht kein Zweifel daran, dass der Chatbot außer Kontrolle geraten ist. Folglich beschloss Microsoft, den Chatbot zurückzuholen. Seit letzten Freitag hat der Chatbot pro Sitzung ein Limit von fünf Fragen und ein Limit von 50 Chats pro Tag.

Außerdem: Wie Sie die neue Bing-Warteliste umgehen und früheren Zugang erhalten können

"Sehr lange Chat-Sitzungen können das zugrunde liegende Chat-Modell im neuen Bing durcheinander bringen", sagte Microsoft in einem Blog-Beitrag. "Unsere Daten haben gezeigt, dass die große Mehrheit von Ihnen innerhalb von 5 Schritten die gesuchten Antworten findet."

Diese Lösung adressiert jedoch keine zugrundeliegenden Probleme bei der Art und Weise, wie Chatbots Antworten formulieren oder wie ihre Modelle ausgebildet werden.

Stattdessen wird es extrem schwierig, mit dem Chatbot zu sprechen.

Außerdem: Bings KI-Chatbot hat meine größten Probleme mit ChatGPT gelöst

Als Beispiel habe ich versucht, den Chatbot darum zu bitten, mir beim Schreiben einer E-Mail zu helfen. Als ich alle Änderungen gemacht hatte, die ich wollte, konnte ich nicht einmal auf die E-Mail zugreifen - der Bing-Chatbot hatte mich rausgeschmissen.

Bild4.jpg

Es ist leicht vorstellbar, dass jemand, der versucht, seinen Code zu perfektionieren oder den perfekten Aufsatz zu verfassen, mehr als fünf Prompting-Fragen benötigt, um das gewünschte Ergebnis zu erzielen. Indem das Gespräch abrupt beendet wird, ist der Chatbot für die meisten technischen Anfragen (wie das Erstellen von Code oder Text in einem bestimmten Format) nutzlos geworden, was bisher das Markenzeichen von ChatGPT war.

Außerdem: Ich nutze ChatGPT, um mir beim schnelleren Beheben von Code-Fehlern zu helfen, aber zu welchem Preis?

Die neuen Einschränkungen schränken auch den gesamten Reiz ein, einen Chatbot mit menschenähnlichen Gesprächsfähigkeiten zu haben. Um den Chat zu beginnen, fragte ich nur ein einfaches "Hallo! Wie fühlst du dich heute?" Als Antwort erhielt ich ein knappes "Es tut mir leid, aber ich bevorzuge es, dieses Gespräch nicht fortzusetzen. Ich lerne noch, also danke für dein Verständnis und deine Geduld.🙏"

Bild2.jpg

Diese Antwort bietet einen starken Kontrast zur Antwort von ChatGPT, die anerkennt, dass es nicht in der Lage ist, Gefühle zu empfinden, aber dennoch freundlich Ihre Frage beantwortet und fragt, wie es Ihnen weiterhelfen kann.

Bild1.jpg

Durch den Versuch, Kontroversen zu verhindern, hat Microsoft die Eigenschaften entfernt, die den Chatbot hilfreich und einzigartig gemacht haben und uns mit dem Gefühl einer Demo-Version zurückgelassen. Obwohl es etwas unordentlich war, war die ursprüngliche Version nützlicher und aufregender als die gegenwärtige, gedämpfte Version von Bing.

Ähnliche Artikel

Mehr anzeigen >>
  • Plagiiert Chat GPT?

    Ist Chat GPT frei von Plagiaten? Erfahren Sie mehr über Chat GPT's potenzielle Plagiatsprobleme und den besten Plagiatsprüfer für KI-generierten Inhalt.

  • 11 Nachteile von ChatGPT-Inhalten

    Forscher entdecken überraschende Schwächen im ChatGPT-Inhalt. Hier ist, wie Sie sie erkennen können.

  • ChatGPT Wortlimit

    Gibt es eine Wortbegrenzung auf ChatGPT? Einige denken es gibt eine, aber andere sind sich unsicher. Eines wissen wir jedoch: Es gibt einfache Lösungen, um Probleme zu vermeiden.