Familie Fasel:

Kann künstliche Intelligenz schlauer als der Mensch sein?

Das ist eine sehr tiefe und wichtige Frage, die uns Forscher:innen immer noch beschäftigt. Sagen wir doch zuerst, was wir mit Intelligenz meinen. Wenn wir von Intelligenz reden, meinen wir, dass eine Person die Fähigkeit hat, Probleme zu lösen und aus Erfahrungen zu lernen. Für sich genommen sind dies Eigenschaften, die eine Künstliche Intelligenz (KI) auch erfüllt. Beispielsweise gibt es schon heute eine KI, die besser Schach spielt als der Mensch. Es gibt auch bereits einige KIs, die schwierige Rechenaufgaben schneller und sorgfältiger als Menschen lösen. Und nicht zuletzt gibt es auch KIs, die grosse Mengen an Informationen viel schneller als jeder Mensch verarbeiten können, zum Beispiel, wenn es um Suchergebnisse im Internet geht.

In bestimmten Bereichen gibt es daher schon heute KIs, die schlauer als wir Menschen sind. Aber vielleicht sollte man eher sagen, dass diese KIs in ihren Aufgaben besser als Menschen sind. Das macht sie aber nicht unbedingt schlauer, denn zu Intelligenz gehört ja auch die Fähigkeit, neue Informationen zu verarbeiten und sich daran anzupassen. Eine KI, die sehr gut Schach spielt, kann beispielsweise nicht auch noch gut rechnen. Im Gebiet des “Maschinellen Lernens” sind wir Forscher:innen sehr daran interessiert, immer bessere KIs zu bauen. Ob einige davon aber wirklich intelligent sind oder sein werden, das heisst, ob sie auch die Fähigkeit haben, sich an neue Situationen anzupassen, ist eine strittige Frage. Heute sieht es noch nicht danach aus, denn Intelligenz ist ein sehr kompliziertes Thema. Wenn wir in die Zukunft schauen, wird es wohl schon irgendwann KIs geben, die intelligenter als wir Menschen sein könnten. Es ist allerdings noch nicht absehbar, wann dies erfolgen wird. Trotz der grossen und tollen Fortschritte, die wir in vielen Gebieten machen, scheint “echte” Künstliche Intelligenz noch sehr weit entfernt.

Angesichts von Anbietern wie OpenAI (ChatGPT) sollten wir vielleicht noch kurz über die sogenannten “Large Language Models” (grosse Sprachmodelle) reden. Diese Modelle sind sehr gut darin, eine Konversation mit Menschen zu führen und Fragen zu beantworten. Sie mögen daher sehr “intelligent” erscheinen, aber wir sollten uns darüber im Klaren sein, dass diese Modelle – trotz aller technischen Feinheiten – noch nicht in der Lage sind, frei zu denken, wie ein Mensch das tun kann. Stattdessen sind solche Modelle darauf trainiert, möglichst wohlklingende Antworten zu Fragen zu geben. Im Gegensatz zum Menschen haben sie jedoch keine Vorstellung davon, was “wahr” oder “richtig” ist. Stattdessen geben sie nur das wieder, was in den Daten steckt. Ob richtig oder falsch, spielt dabei leider gar keine Rolle. Da sind wir Menschen hoffentlich anders.

 

Unser Experte:

Bastian Grossenbacher-Rieck

Professor für Maschinelles Lernen an der Universität Freiburg und Leiter der Forschergruppe AIDOS.