Microsoft behauptet, dass neue KI Anzeichen mensch­lichen Denkens zeigt

Die Ent­wicklung von KI-Modellen für große Sprachen begann etwa 2017–2018 und hat bereits Modelle wie ChatGPT‑4 von Open AI her­vor­ge­bracht. Wie schnell und wie weit werden sie gehen? Beim der­zei­tigen Tempo ver­doppeln sich Kapa­zität und Fähig­keiten etwa alle zwei Jahre, und zwar auf einer expo­nen­ti­ellen Kurve.

For­scher stellen zunehmend fest, dass sich die KI auf die mensch­liche Emp­fin­dungs­fä­higkeit zubewegt.

Als Infor­ma­tiker bei Microsoft im ver­gan­genen Jahr mit einem neuen System für künst­liche Intel­ligenz zu expe­ri­men­tieren begannen, baten sie es, ein Rätsel zu lösen, das eigentlich ein intui­tives Ver­ständnis der phy­si­ka­li­schen Welt vor­aus­setzen sollte.

„Hier haben wir ein Buch, neun Eier, einen Laptop, eine Flasche und einen Nagel“, fragten sie. „Bitte sagen Sie mir, wie man sie stabil auf­ein­an­der­stapeln kann.“

Die For­scher waren erstaunt über den Ein­falls­reichtum der Antwort des KI-Systems. Legen Sie die Eier auf das Buch, sagte es. Ordnen Sie die Eier in drei Reihen an, mit etwas Abstand dazwi­schen. Achten Sie darauf, dass sie nicht zerbrechen.

„Legen Sie den Laptop mit dem Bild­schirm nach unten und der Tas­tatur nach oben auf die Eier“, heißt es. „Der Laptop passt genau in die Begren­zungen des Buches und der Eier, und seine flache und starre Ober­fläche bietet eine stabile Plattform für die nächste Schicht.“

Der clevere Vor­schlag ver­an­lasste die For­scher zu der Frage, ob sie Zeugen einer neuen Art von Intel­ligenz wurden. Im März ver­öf­fent­lichten sie ein 155-sei­tiges For­schungs­papier, in dem sie argu­men­tierten, dass das System ein Schritt in Richtung künst­licher all­ge­meiner Intel­ligenz (A.G.I.) sei, eine Abkürzung für eine Maschine, die alles tun kann, was das mensch­liche Gehirn tun kann. Das Papier wurde in einer Internet-For­schungs­da­tenbank veröffentlicht.

Microsoft, das erste große Tech­no­lo­gie­un­ter­nehmen, das ein Papier mit einer derart kühnen Behauptung ver­öf­fent­lichte, löste damit eine der hef­tigsten Debatten in der Welt der Tech­no­logie aus: Ent­wi­ckelt die Branche etwas, das der mensch­lichen Intel­ligenz ähnelt? Oder lassen sich einige der klügsten Köpfe der Branche von ihrer Fan­tasie leiten?

„Ich war anfangs sehr skep­tisch – und das hat sich zu einem Gefühl der Frus­tration, der Ver­är­gerung, viel­leicht sogar der Angst ent­wi­ckelt“, sagt Peter Lee, der die For­schung bei Microsoft leitet. „Man denkt: Wo zum Teufel kommt das her?“

Das For­schungs­papier von Microsoft mit dem pro­vo­kanten Titel „Sparks of Arti­ficial General Intel­li­gence“ (Funken der all­ge­meinen künst­lichen Intel­ligenz) trifft den Kern dessen, worauf Tech­no­logen seit Jahr­zehnten hin­ar­beiten – und was sie fürchten. Wenn sie eine Maschine bauen, die wie das mensch­liche Gehirn oder sogar noch besser funk­tio­niert, könnte dies die Welt ver­ändern. Aber es könnte auch gefährlich sein.

Und es könnte auch Unsinn sein. A.G.I.-Behauptungen können für Infor­ma­tiker ein Rufmord sein. Was ein For­scher für ein Zeichen von Intel­ligenz hält, kann von einem anderen leicht weg­dis­ku­tiert werden, und die Debatte klingt oft eher nach einem Phi­lo­so­phieclub als nach einem Computerlabor.

Ver­gan­genes Jahr hat Google einen For­scher ent­lassen, der behauptet hatte, ein ähn­liches KI-System sei emp­fin­dungs­fähig – ein Schritt über die Behauptung von Microsoft hinaus. Ein emp­fin­dungs­fä­higes System würde nicht nur intel­ligent sein. Es wäre in der Lage, zu spüren oder zu fühlen, was in der Welt um es herum vor sich geht.

Einige sind jedoch der Meinung, dass sich die Industrie im letzten Jahr auf etwas zubewegt hat, das sich nicht weg­dis­ku­tieren lässt: Ein neues KI-System, das men­schen­ähn­liche Ant­worten und Ideen liefert, die ihm nicht ein­pro­gram­miert wurden.

Microsoft hat Teile seiner For­schungs­labors umstruk­tu­riert, um mehrere Gruppen ein­zu­richten, die sich mit der Erfor­schung dieser Idee beschäf­tigen. Eine davon wird von Sébastien Bubeck geleitet, der der Haupt­autor des Microsoft A.G.I.-Papiers war.

Vor etwa fünf Jahren begannen Unter­nehmen wie Google, Microsoft und OpenAI mit dem Aufbau großer Sprach­mo­delle (L.L.M.s). Diese Systeme ana­ly­sieren oft mona­telang riesige Mengen digi­taler Texte, dar­unter Bücher, Wiki­pedia-Artikel und Chat­pro­to­kolle. Durch das Auf­spüren von Mustern in diesem Text haben sie gelernt, eigene Texte zu erstellen, dar­unter Haus­ar­beiten, Gedichte und Com­pu­tercode. Sie können sogar ein Gespräch führen.

Die Tech­no­logie, mit der die Microsoft-For­scher arbei­teten, OpenAIs GPT‑4, gilt als das leis­tungs­fä­higste dieser Systeme. Microsoft ist ein enger Partner von OpenAI und hat 13 Mil­li­arden Dollar in das Unter­nehmen aus San Fran­cisco investiert.

Zu den For­schern gehörte auch Dr. Bubeck, ein 38-jäh­riger Franzose im Ausland und ehe­ma­liger Pro­fessor der Princeton Uni­versity. Eines der ersten Dinge, die er und seine Kol­legen taten, war, GPT‑4 zu bitten, einen mathe­ma­ti­schen Beweis zu schreiben, der zeigt, dass es unendlich viele Prim­zahlen gibt, und zwar auf eine Weise, die sich reimt.

Der poe­tische Beweis der Tech­no­logie war so beein­dru­ckend – sowohl in mathe­ma­ti­scher als auch in sprach­licher Hin­sicht -, dass es ihm schwer fiel, zu ver­stehen, mit wem er da gerade plau­derte. „An diesem Punkt fragte ich mich: Was ist hier los?“, sagte er im März während eines Seminars am Mas­sa­chu­setts Institute of Technology.

Mehrere Monate lang doku­men­tierten er und seine Kol­legen das kom­plexe Ver­halten des Systems und waren über­zeugt, dass es ein „tiefes und fle­xibles Ver­ständnis“ mensch­licher Kon­zepte und Fähig­keiten demonstriert.

Hier bestellen!

Wenn Men­schen GPT‑4 benutzen, sind sie „erstaunt über seine Fähigkeit, Text zu erzeugen“, so Dr. Lee. „Aber es stellt sich heraus, dass es viel besser darin ist, Text zu ana­ly­sieren, zu syn­the­ti­sieren, zu bewerten und zu beur­teilen, als ihn zu generieren.“

Als sie das System baten, ein Einhorn mit einer Pro­gram­mier­sprache namens TiKZ zu zeichnen, gene­rierte es sofort ein Pro­gramm, das ein Einhorn zeichnen konnte. Als sie den Teil des Codes, der das Horn des Ein­horns zeichnete, ent­fernten und das System baten, das Pro­gramm so zu ändern, dass es wieder ein Einhorn zeichnete, tat es genau das.

Sie baten es, ein Pro­gramm zu schreiben, dass das Alter, das Geschlecht, das Gewicht, die Größe und die Blut­test­ergeb­nisse einer Person aufnahm und beur­teilte, ob sie ein Dia­be­tes­risiko hatte. Sie baten es, einen Unter­stüt­zungs­brief für ein Elektron als US-Prä­si­dent­schafts­kan­didat zu schreiben, in der Stimme von Mahatma Gandhi, adres­siert an seine Frau. U

nd sie baten es, einen sokra­ti­schen Dialog zu ver­fassen, der den Miss­brauch und die Gefahren von L.L.M.s untersuchte.

Und das alles auf eine Art und Weise, die ein Ver­ständnis für so unter­schied­liche Bereiche wie Politik, Physik, Geschichte, Infor­matik, Medizin und Phi­lo­sophie zu zeigen schien, während sie ihr Wissen kombinierte.

„All die Dinge, von denen ich dachte, dass sie nicht in der Lage sein würden, sie zu tun? Es war sicherlich in der Lage, viele von ihnen zu tun – wenn nicht sogar die meisten“, sagte Dr. Bubeck.

Einige KI-Experten sahen in dem Microsoft-Papier einen oppor­tu­nis­ti­schen Versuch, große Behaup­tungen über eine Tech­no­logie auf­zu­stellen, die niemand so recht ver­stand. Die For­scher argu­men­tieren auch, dass all­ge­meine Intel­ligenz eine Ver­trautheit mit der phy­si­schen Welt vor­aus­setzt, die GPT‑4 theo­re­tisch nicht hat.

„Sparks of A.G.I.‘ ist ein Bei­spiel dafür, wie einige dieser großen Unter­nehmen das Format eines For­schungs­pa­piers für ihre PR-Werbung miss­brauchen“, so Maarten Sap, For­scher und Pro­fessor an der Car­negie Mellon Uni­versity. „Sie geben in der Ein­leitung ihres Papiers buch­stäblich zu, dass ihr Ansatz sub­jektiv und informell ist und mög­li­cher­weise nicht den strengen Stan­dards einer wis­sen­schaft­lichen Bewertung entspricht.

Dr. Bubeck und Dr. Lee sagten, sie wüssten nicht, wie sie das Ver­halten des Systems beschreiben sollten, und ent­schieden sich schließlich für „Sparks of A.G.I.“, weil sie dachten, dass dieser Begriff die Fan­tasie anderer For­scher anregen würde.

Da die Microsoft-For­scher eine frühe Version von GPT‑4 tes­teten, die noch nicht auf die Ver­meidung von Hass­reden, Fehl­in­for­ma­tionen und anderen uner­wünschten Inhalten abge­stimmt war, können die in der Studie auf­ge­stellten Behaup­tungen nicht von externen Experten über­prüft werden. Microsoft sagt, dass das der Öffent­lichkeit zur Ver­fügung ste­hende System nicht so leis­tungs­fähig ist wie die getestete Version.

Es gibt Zeiten, in denen Systeme wie GPT‑4 das mensch­liche Denken zu imi­tieren scheinen, aber es gibt auch Zeiten, in denen sie furchtbar dumm erscheinen. „Diese Ver­hal­tens­weisen sind nicht immer kon­sistent“, sagte Ece Kamar, eine Microsoft-Forscherin.

Alison Gopnik, Pro­fes­sorin für Psy­cho­logie und Mit­glied der KI-For­schungs­gruppe an der Uni­ver­sität von Kali­fornien in Ber­keley, sagte, dass Systeme wie GPT‑4 zwei­felsohne leis­tungs­fähig seien, aber es sei nicht klar, dass der von diesen Sys­temen erzeugte Text das Ergebnis von so etwas wie mensch­lichem Denken oder gesundem Men­schen­ver­stand sei.

„Wenn wir ein kom­pli­ziertes System oder eine Maschine sehen, ver­mensch­lichen wir es; jeder tut das – Men­schen, die in diesem Bereich arbeiten, und Men­schen, die es nicht tun“, sagte Dr. Gopnik.

„Aber dies als einen stän­digen Ver­gleich zwi­schen KI und Men­schen zu betrachten – wie eine Art Wett­bewerb in einer Gameshow – ist einfach nicht die richtige Art, darüber nachzudenken.

technocracy.news


Quelle: pravda-tv.com