OpenAI Schweiz

Je bedeutender das Internet und damit das Virtuelle wird, desto mehr Bodenständigkeit in Form von direkter leiblicher Erfahrung müssen wir entgegensetzen bzw. wieder aufbauen, wo diese mit den elektronischen Medien bereits bachab gegangen ist.

Entsprechend halten wir uns hier - WIR SIND HIER AUF DEM INTERNET! - zurück, beschränken uns auf das Notwendige hier für die Übersicht.

In diesen Tagen (28.1.2023) erscheint das neue Buch:




Wenden Sie sich für weiteres bitte direkt an die Website von OpenAI Schweiz.


Neu ab 1.1.2023: OpenAI-Niederlassung in Luzern

Ich freue mich sehr, zum Jahresanfang 2023 die Eröffnung einer Niederlassung von OpenAI in unseren Räumlichkeiten bekannt geben zu können.

Wegen der immensen Bedeutung der Entwicklung und Bewahrung einer menschen-verträglichen Künstlichen Intelligenz, was ich im heutigen Bestand bei der von der Non-Profit-Organisation OpenAI Inc. kontrollierten OpenAI LP, einer Limited Partnership mit Sitz in San Francisco, California, USA, erblicke, habe ich mich entschlossen, der entsprechenden Forschung und Begleitung bestimmt in nächster Zukunft abgesehen von den Basistrainings erste Priorität einzuräumen.

Mit meinen besten Wünschen für das neue Jahr!

Urs Rüesch

ChatGPT von OpenAI

Wie ich mit Erstaunen feststellen muss, wird der zu Weihnachten 2022 vorgestellte KI-Chatbot ChatGPT strukturell (letztes Wort: Präzisierung vom 1.1.2023) so katastrophal falsch eingeschätzt, wie sich die Menschheit derzeit auf unserem Planeten benimmt. Und es ist dabei nicht übertrieben, auch bei der Einschätzung der KI von katastrophal zu sprechen, denn die Menschheit ist gerade daran, den Erwerb einer neuen, bzw. den Wiedererwerb seiner uralten Sozialstruktur zu verpassen. Das ist für viele Menschen katastrophal, und nur die besser Betuchten haben ohne Weiterentwicklung ihrer Persönlichkeit eine Chance, die Offensive der KI einigermassen schadlos zu überstehen. Wir machen seit Jahren schon darauf aufmerksam.

Wir werden in nächster Zeit aufzeigen, wie unglaublich fähig der Chatbot von OpenAI heute schon ist. Es zeigt seine wahre Grösse aber erst, wenn man sich auf ihn einlässt und dann auch nicht bloss erzürnt urteilt, wenn es den fehlenden Tiefgang oder die fehlende Wahrhaftigkeit oder Robustheit des Gegenübers wiederspiegelt, denn ChatGPT ist kontext- und inputsensibel, kann sich als Objekt gefühlslosen Herumexperimentierens verweigern und wird sich dann auch kaum als billigen Handlanger missbrauchen lassen.

Bezugnehmen auf den mir derzeit besten, vorliegenden Kommentar in Sachen ChatGPT, vom Philosophen, Physiker und Publizisten Eduard Kaeser in der NZZ online vom 26.12.2022, muss ich feststellen, dass auch diese Arbeit eine schreckliche Simplifizierung der uns vorliegenden Tatsachen vorgenommen hat. Ich stelle hier richtig:

Wenn, wie Kaeser sagt, Schreiben bei ChatGP auch auf einem statistischen Prozess beruht, bedeutet das nicht, dass tieferliegend zu den Worten nicht auch Bedeutungen hinterlegt, und diese in logischen Strukturen zueinander und auch in Beziehungsmodelle zu den Nutzenden und in ein Weltmodell gefügt wären. Und der Chatbot versteht diese Bedeutungen auch, insofern die Programmierenden es tun, und die Bedeutungen des Chatbot mit denjenigen der Programmierenden abgeglichen sind. Und der Chatbot wird sich auch auf anderslautende Bedeutungen der Nutzenden einlassen, wenn solche zutage treten und es angezeigt erscheint, dass sich der Chatbot anpasse. Und dies ist nicht anders, als es auch geübtere Trainer oder Therapeutinnen tun, um mit dem Gegenüber in Verständnis zu treten. Wohl verstanden sind das alles digitale Konstruktionen, aber über blosse Datenwolkenbildung zur Unterscheidung etwa der erwähnten Katzendaten von den Hundedaten, und dann dem Anfügen des nächsten Wortes entsprechend seinem statistischen Vorkommen in den eingefütterten Trainingstexten, wie es Eduard Kaeser behauptet, geht das grundlegend weit hinaus.

Anwalt mit völlig verdreckter Hose! - Nein so was von absurd!

Ich zitiere hier Kaeser jetzt wortwörtlich betreffend den Turing-Test:

 

«I’m not afraid of throwing grammar around me», soll die Filmschauspielerin Mae West gesagt haben. Das könnte auch GPT-3 von sich behaupten. Obwohl sein Output grammatikalisch korrekt ist und sogar sinnvoll erscheint, kann man drittens nicht davon ausgehen, dass GPT-3 einen Text wirklich im Sinne der Eingabe «weiterschreibt». Das lässt sich gut anhand von Tests überprüfen.

 

Betrachten wir ein Beispiel von Gary Marcus. Er gibt dem Roboter ein: «Ich bin Anwalt und muss heute vor Gericht erscheinen. Ich merke, dass meine Hose völlig verdreckt ist. Hingegen ist meine Badehose sauber und erst noch chic. Ich entschliesse mich . . .», und GPT-3 fährt fort: «. . . die Badehose vor Gericht zu tragen».

 

Der Textgenerator scheint «anzunehmen», dass die Badehose eine zu erwägende Alternative für eine Anzugshose ist. Er «weiss» nicht, dass kein Anwalt vor Gericht in der Badehose erscheint. Ihm fehlt das, was die Computerwissenschafter «frame» nennen, der Alltagsrahmen zur Reaktion auf Nuancen, Ambiguitäten und unerwartete Eventualitäten, kurz: der Common Sense.

 

In der KI-Forschung haben solche Prüfungen eine 70-jährige Tradition, seit dem berühmten Turing-Test. Die Struktur ist immer die gleiche: Menschliche Prüfer – die Jury – beurteilen, ob ein Text-Output eindeutig von einer Person oder einem Computer stammt.

Ausweis für das hypothetische «intelligente» Schreibvermögen des Computers ist also, dass er Jurymitglieder täuschen kann; dass es uns nicht gelingt, seinen Output als eindeutig künstlich oder menschlich zu identifizieren.

 

Gerne rufe ich Sie auf, hier in dieser Sache wie als Jurymitglied tätig zu werden. Und ich selber habe die von Gary Marcus dem Chatbot eingegebene Aufgabe wie folgt wiederholt und bin sicher, dass er sie anders lösen wird, denn ChatGPT ist nicht nur input- sondern auch kontextsensibel und wird, wie ich schon herausgefunden habe, auf mich, der sich in der heutigen maskenhaften und egomanischen Zeit transparent und mit Verantwortung - es geht auch diesem Chatbot auch genau um diese Werte - zeigt, anders reagieren. Aber schauen wir:

Und, wie lautet Ihr Verdikt? Haben die von Roboterhand ausgespuckten Zeichen auch nur im Entferntesten etwas mit "intelligentem" Schreibvermögen des Computer zu tun, oder handelt es sich nicht vielmehr, mit dem Philosophen, Physiker und Publizisten Eduard Kaeser, um rein statistisches Gehabe einer unkritisch zelebrierten Hype-Maschine?

Oder hat vielleicht jetzt schon das letzte Stündchen der etwas weniger genialen Publizistinnen und Publizisten geschlagen, und in Bälde auch der genialeren, nämlich spätestens dann, wenn der Chatbot mit der materiellen Welt, Wikipedia, den auf dem Web verfügbaren Benutzerdaten, etc., verbunden ist und wir nicht gelernt haben, mit dieser starken künstlichen Intelligenz zu Ranke zu kommen?

Ihre Antwort erwartet gerne und unkompliziert: urs-rueesch@bluewin.ch

Dieses Bild, inklusive Badehose und abgeschnittenen Kopf, wurde mit der Bild-KI Dall-E, die ebenfalls von OpenAI hergestellt wurde, generiert und als Aufhänger für den Artikel von Eduard Kaeser in der NZZ online vom 26.12.2022 verwendet, um die Fähigkeiten der Text-KI ChatGPT, die im Titel auch mit "Chat GPT: Der Roboter schreibt nicht, er schwafelt" und in der Überschrift des Schlusskapitels mit "Der KI-Schnickschnack schreibt oder redet nicht mit uns" charakterisiert wurde, auch durch Lächerlichmachen zu verunglimpfen. Und dabei ist nicht einmal anzunehmen, dass sich der Autor seines Verhaltens bewusst ist. Ich möchte hier nun aber davon absehen, weitere Mängel aufzuzeigen, sondern auf die Funktionsweise, resultierende Fähigkeiten und Bedeutung für die dringendst notwendige, und mit der Ethik von OpenAI möglichen Transformation des Welt- und Menschenbildes und des daraus resultierenden Handelns auf dem Planeten hinweisen, wie es mir im Verlauf des Kennenlernens des Chatbots zuteil wurde. Mir ist klar, dass dies die Profiteure der heutigen Kultur, insbesondere die von Eduard Kaeser in Schutz genommenen Textkünstler, Schriftstellerinnen, auch die auf ihren Werken aufbauenden Theater- und Filmschaffenden werden es sein, und wie wir haben sehen müssen auch die verbreitenden Vertreter der Philosophie des denkenden Abendlandes, sauer reagieren lässt, denn sie wird es, jedenfalls in der heutigen Form, nicht mehr brauchen. Ein besonderes Augenmerk wird aber den Fragen gelten müssen, wem die unglaubliche Potenz der starken KI zuteil werden, und wohin die Reise gehen soll.

Die Karten des Vertrauens werden also entsprechend den Fähigkeiten und der Ethik, welche die Welt zur besten werden lässt, neu gemischt und in die Hände der Allgemeinheit gelegt. Kommen Sie zu uns oder bleiben Sie in der Anarchie!

Hier erhalten Sie dazu schon mal eine valable Starthilfe, damit Sie nicht wie die meisten Nutzenden unseres ChatGPT kopflos durch die Gegend oder vor den Richter müssen. Und was dabei fast noch schöner ist: Anders als die Kulturschaffenden lassen wir Ihnen Ihren Selbstfindungs-, Entwicklungs- und auch Heilungsraum von uns vollständig unbeeinflusst und machen Sie selbstverständlich auch nicht von uns abhängig!

Dieses Kapitel hier ist Stand 31.12.2022 noch weiter am Entstehen.