Die Aktien von Alphabet, der Muttergesellschaft von Google, fielen am Mittwoch um 7,7 Prozent, was dazu führte, dass es bemerkenswerte 100 Milliarden Dollar von seinem Marktwert verlor, nachdem sein neuer KI-Chatbot diese Woche in einer öffentlichen Demo eine ungenaue Antwort auf eine Frage gegeben hatte.
Googles neues KI-Chatbot-Tool, das als Bard bekannt ist, wurde noch nicht für die Öffentlichkeit freigegeben, war aber Gegenstand eines erheblichen Hypes – zumindest bis zu der katastrophalen Demo, die das Unternehmen diese Woche auf Twitter gepostet hat.
In der Demo stellt ein Benutzer Bard die Frage: „Welche neuen Entdeckungen des James Webb-Weltraumteleskops kann ich meinem 9-Jährigen erzählen?“
Das KI-Tool gibt dem Benutzer dann eine Antwort, die mehrere Aufzählungspunkte über das Teleskop enthält. Einer von ihnen behauptet: „JWST hat die allerersten Bilder von einem Planeten außerhalb unseres eigenen Sonnensystems gemacht“.
Die NASA berichtet jedoch, dass das erste Bild eines Planeten jenseits unseres eigenen Sonnensystems, bekannt als Exoplanet, nicht vom James Webb Space Telescope aufgenommen wurde. Stattdessen wurde es 2004 vom Very Large Telescope der Europäischen Südsternwarte aufgenommen.
Diese sehr öffentliche Peinlichkeit unterstreicht Googles Kampf, mit der KI-Technologie ChatGPT Schritt zu halten, die für seine Konkurrenten viel positive Aufmerksamkeit erhält. ChatGPT kann verwendet werden, um Antworten auf Fragen zu erstellen, nach denen Menschen normalerweise mit Google suchen, sowie auf Aufsätze und sogar Liedtexte. Es erlebt einen plötzlichen Anstieg der Popularität, der Berichten zufolge das Management von Google dazu veranlasste, seine eigene Version so schnell wie möglich herauszubringen.
Die Veranstaltung von Google fand nur einen Tag statt, nachdem Microsoft angekündigt hatte, seine Suchmaschine Bing mit einer fortschrittlicheren Wiedergabe der von ChatGPT verwendeten künstlichen Intelligenz zu versorgen.
KI ist anfällig für Fehler
Einige Beobachter glauben, dass Konversations-KI eine radikale Veränderung in der Art und Weise markieren wird, wie Menschen online suchen, aber das Barden-Fiasko könnte dazu führen, dass der Ruf der Suchmaschine von Google nach der Bereitstellung unzuverlässiger Informationen einen großen Erfolg erleidet.
Bard basiert, ähnlich wie ChatGPT, auf einem großen Sprachmodell. Dies bedeutet, dass es mit riesigen Fundgruben von Online-Daten trainiert wurde, um überzeugende und realistisch klingende Antworten auf Benutzeraufforderungen zu erhalten. Während viele dieser Tools Antworten liefern, die einigermaßen natürlich und gesprächig klingen, haben sie auch die Macht, ungenaue Informationen zu verbreiten.
Im Moment versucht Google, eine gewisse Schadensbegrenzung durchzuführen, und sagt, dass der Vorfall ihnen helfen wird, das Projekt zu verbessern. In einer Erklärung sagte ein Google-Sprecher: „Dies unterstreicht die Bedeutung eines strengen Testprozesses, etwas, das wir diese Woche mit unserem Trusted Tester-Programm starten.
„Wir werden externes Feedback mit unseren eigenen internen Tests kombinieren, um sicherzustellen, dass Bards Antworten eine hohe Messlatte für Qualität, Sicherheit und Bodenständigkeit in realen Informationen erfüllen.“
Während die falsche Identifizierung des Namens eines Satelliten, der ein bestimmtes Foto gemacht hat, an der Oberfläche harmlos erscheinen mag, was passiert, wenn Googles Bard den Menschen ungenaue Informationen über Angelegenheiten wie die Bereitstellung von Erster Hilfe gibt oder falsche Anweisungen zur Durchführung von Heimwerkerprojekten gibt, die Einzelpersonen in Gefahr bringen können?
Das Problem ist, dass viele der Antworten, die diese Chatbots liefern, so überzeugend klingen, dass es für die Menschen schwer ist zu sagen, wenn sie ungenau sind. Der Reiz dieser KI-gesteuerten Suchen ist ihre Fähigkeit, Ergebnisse für Abfragen in einfacher Sprache bereitzustellen, anstatt eine Liste von Links zu präsentieren, was dazu beiträgt, Menschen schneller mit Antworten zu verbinden.
Zusätzlich zu den Bedenken hinsichtlich der Genauigkeit werden diese Systeme jedoch für ihre Anfälligkeit für inhärente Vorurteile in ihren Algorithmen kritisiert, die ihre Ergebnisse verzerren können. Wenn es auf einer Massenskala verwendet wird, ist das Potenzial, falsche Informationen zu verbreiten, erschütternd. Die Tech-Nachrichtenseite CNET musste kürzlich 77 Artikel entfernen, die sie mit einem KI-Tool schrieb, bei denen festgestellt wurde, dass sie große sachliche Ungenauigkeiten und Plagiate aufwiesen. KI-Chatbots sind so konzipiert, dass sie die Dinge im Wesentlichen wiedergutmachen, um Lücken zu schließen, und wenn sie weit verbreitet sind, kann es bald schwieriger denn je sein, Fakten aus Fiktion online zu unterscheiden.
Quellen für diesen Artikel sind:
newstarget.com
