Die schnelle Entwicklung der künstlichen Intelligenz kann einige Risiken mit sich bringen, weshalb sie streng und ethisch kontrolliert werden sollte. KI-Entwickler diskutieren jetzt darüber, wie sie der Technologie Grenzen setzen können, um sicherzustellen, dass Roboter immer im Interesse der Menschheit handeln, da es gefährlich sein könnte, ihnen ihre eigene unabhängige Persönlichkeit zu geben.
KI-Berater Matthew Kershaw sagte, dass es für die Technologie möglicherweise sogar möglich ist, innerhalb dieses Lebens besorgniserregende Höhen zu erreichen, „wenn Sie jung genug sind“.
Professor Stephen Hawking, theoretischer Physiker und Kosmologe, sagte vor seinem Tod im Jahr 2018: „Die primitiven Formen der künstlichen Intelligenz, die wir bereits haben, haben sich als sehr nützlich erwiesen. Aber ich denke, die Entwicklung vollständiger künstlicher Intelligenz könnte das Ende der Menschheit bedeuten. (Verwandt: EU schlägt Rechtsvorschriften zur Einschränkung der Gesichtserkennungstechnologie und der Anwendungen der künstlichen Intelligenz vor.)
SpaceX-Gründer Elon Musk stimmte Hawkings Aussage zu. Er sagte: „Ich denke, wir sollten sehr vorsichtig mit künstlicher Intelligenz sein. Wenn ich erraten müsste, was unsere größte existenzielle Bedrohung ist, dann ist es wahrscheinlich das. Wir müssen also sehr vorsichtig sein.“
Was ist künstliche allgemeine Intelligenz?
KI an sich kann gefährlich sein, aber was können wir von AGI erwarten? Einfach ausgedrückt, kann künstliche allgemeine Intelligenz als die Fähigkeit einer Maschine definiert werden, jede Aufgabe auszuführen, die ein Mensch ausführen kann. Während dies die Fähigkeit von Maschinen unterstreicht, Aufgaben mit größerer Wirksamkeit als Menschen auszuführen, sind sie ab diesem Moment im Allgemeinen nicht intelligent. Zum Beispiel sind sie sehr gut in einer einzigen Funktion, während sie in nichts anderem, was nicht in sie programmiert ist, Fähigkeiten haben. Obwohl sie als hundert ausgebildete Menschen bei der Durchführung einer Aufgabe effektiv sind, kann sie gegen Kinder über buchstäblich alles andere verlieren.
Kershaw glaubt jedoch, dass wahre AGI den Einsatz von Computern erfordern wird, die leistungsstark genug sind, um ein umfassendes Weltmodell zu halten, und dies wird nicht so bald der Fall sein. „Da wir nicht wirklich verstehen, was es bedeutet, uns selbst bewusst zu sein, denke ich, dass es unwahrscheinlich ist, dass AGI in Kürze Realität wird. Wir wissen einfach nicht, was es eigentlich bedeutet, „bewusst“ zu sein.
Darüber hinaus muss KI in jeder Funktion mit riesigen Datenmengen trainiert werden, während Menschen mit deutlich weniger lernen können. „Ein menschliches Kind muss nicht mehr als fünf Autos sehen, um zu lernen, wie man ein Auto erkennt. Ein Computer müsste Tausende sehen“, sagte Kershaw.
1950 schlug der Computerpionier Alan Turing vor, dass ein Computer als künstliche Intelligenz bezeichnet werden kann, wenn er menschliche Reaktionen unter bestimmten Bedingungen nachahmen kann. Turing hat einen Test entwickelt, um festzustellen, ob eine KI für einen Menschen bestehen könnte oder nicht, und bisher gab es kein System, das sie bestanden hat, obwohl nur wenige nahe gekommen sind. Die nächste war 2018, als die Duplex-KI von Google einen Friseursalon anrief und erfolgreich einen Termin vereinbarte.
Duplex arbeitete jedoch an einer sehr spezifischen Aufgabe, und ein echter AGI hätte mit dem Friseur chatten können.
Künstliche Intelligenz ist heute überall, aber obwohl diese Systeme gut in ihren engagierten Missionen sind, konnte bisher keines von ihnen lernen, etwas ohne die Hilfe des Menschen zu tun.
Was Wissenschaftler als „künstliche allgemeine Intelligenz“ bezeichnen, bleibt vorerst theoretisch. Um diese künstlichen Systeme zu ermöglichen, müssen Maschinen aus Erfahrung lernen, sich an neue Eingaben anpassen und menschenähnliche Aufgaben ausführen.
Experten entwickeln neue Technologien, die sich in der Nähe des Wendepunkts befinden können, an dem sie allgemeine Intelligenz entwickeln können. Die meisten KI-Experten glauben jedoch immer noch, dass wir AGI bis zum Ende des Jahrhunderts sehen können, wobei die optimistischsten Schätzungen zwischen 2040 und 2080 liegen. Andere glauben auch, dass künstliches Bewusstsein niemals erreicht werden wird, weil wir als Menschen unser eigenes nicht verstehen.
Risiken künstlicher Intelligenz
Es gibt auch Nachteile für künstliche Intelligenz, von denen einige die folgenden umfassen:
Arbeitsplatzverlust. Die Automatisierung von Arbeitsplätzen kann zu massivem Arbeitsplatzverlust führen. Die Arbeitsplatzautomatisierung ist ein unmittelbares Anliegen. Es geht nicht mehr darum, ob KI bestimmte Jobtypen ersetzen kann, sondern darum, inwieweit sie es können. Viele Branchen werden bereits heute automatisiert, insbesondere in Bereichen, in denen sich Aufgaben wiederholen. Es dauert nicht lange, bis hin zu Aufgaben vom Einzelhandel über Marktanalysen bis hin zur Arbeit mit KI erledigt werden können.
Datenschutzbedenken. Der bösartige Einsatz von KI könnte auch die digitale Sicherheit durch Hacking, physische Sicherheit durch Bewaffnen von Verbraucherdrohnen und sogar politische Sicherheit durch Überwachung und Profiling bedrohen. KI kann die Privatsphäre und Sicherheit ähnlich wie Chinas „Orwellsche“ Verwendung von Gesichtstechnologie in Büros, Schulen und Veranstaltungsorten beeinträchtigen.
Börseninstabilität. Durch den algorithmischen Hochfrequenzhandel konnten ganze Finanzsysteme gestürzt werden. Der algorithmische Handel tritt auf, wenn ein Computer Trades auf der Grundlage vorprogrammierter Anweisungen ausführen könnte, und er kann großvolumige, hochfrequente und hochwertige Geschäfte tätigen, die zu extremer Marktvolatilität führen können.
Lesen Sie mehr über künstliche Intelligenz und die Wunder der Technologie auf Computing.news.
Zu den Quellen gehören: