Sam Altman, CEO von OpenAI, hat in zahlreichen Interviews, bei Veranstaltungen und sogar während seiner Sitzung vor dem US-Kongress sehr lautstark auf die Notwendigkeit einer KI-Regulierung hingewiesen.
Den OpenAI-Dokumenten zufolge, die für die Lobbyarbeit des Unternehmens in der EU verwendet wurden, gibt es jedoch einen Haken: OpenAI will Vorschriften, die das Unternehmen stark begünstigen, und hat daran gearbeitet, die vorgeschlagene KI-Regulierung abzuschwächen.
Die Dokumente, die Time von der Europäischen Kommission über Anfragen zur Informationsfreiheit erhalten hat, geben einen Blick hinter die Kulissen und zeigen, was AItman meint, wenn er eine KI-Regulierung fordert.
In dem Dokument mit dem Titel „OpenAIs Weißbuch zum EU-Gesetz über künstliche Intelligenz“ konzentriert sich das Unternehmen genau auf das, was es sagt: das EU-KI-Gesetz und den Versuch, verschiedene Bezeichnungen im Gesetz zu ändern, was seinen Geltungsbereich schwächen würde. Beispielsweise wurden „Allzweck-KI-Systeme“ wie GPT-3 im EU-KI-Gesetz als „hohes Risiko“ eingestuft.
Nach Angaben der Europäischen Kommission würde die Einstufung als „hohes Risiko“ Systeme umfassen, die zu „Schäden für die Gesundheit, Sicherheit, Grundrechte oder die Umwelt“ der Menschen führen könnten. Dazu gehören Beispiele wie KI, die „Wähler in politischen Kampagnen und in Empfehlungssystemen, die von Social-Media-Plattformen verwendet werden, beeinflussen“. Diese KI-Systeme mit „hohem Risiko“ würden gesetzlichen Anforderungen hinsichtlich menschlicher Aufsicht und Transparenz unterliegen.
„GPT-3 ist an sich kein Hochrisikosystem, verfügt aber über Fähigkeiten, die möglicherweise in Anwendungsfällen mit hohem Risiko eingesetzt werden können“, heißt es im OpenAI-Whitepaper. OpenAI sprach sich auch dagegen aus, generative KI wie das beliebte ChatGPT und den KI-Kunstgenerator Dall-E als „hohes Risiko“ einzustufen.
Grundsätzlich vertritt OpenAI die Position, dass der regulatorische Fokus auf den Unternehmen liegen sollte, die Sprachmodelle verwenden, beispielsweise auf den Apps, die die API von OpenAI nutzen, und nicht auf den Unternehmen, die die Modelle schulen und bereitstellen.
Die Haltung von OpenAI stimmt mit Microsoft und Google überein
Laut Time unterstützte OpenAI im Wesentlichen die Positionen von Microsoft und Google, als diese Unternehmen Lobbyarbeit leisteten, um die EU-AI-Act-Vorschriften zu schwächen.
Der Abschnitt, gegen den OpenAI Lobbyarbeit geleistet hatte, wurde schließlich aus der endgültigen Fassung des AI Act entfernt.
Die erfolgreichen Lobbybemühungen von OpenAI erklären wahrscheinlich Altmans Sinneswandel, wenn es um die Aktivitäten von OpenAI in Europa geht. Altman drohte zuvor wegen des KI-Gesetzes damit, OpenAI aus der EU zu entfernen. Letzten Monat änderte er jedoch seinen Kurs. Altman sagte damals, dass der vorherige Entwurf des KI-Gesetzes „überreguliert war, aber wir haben gehört, dass er zurückgezogen werden wird“.
Da nun bestimmte Teile des EU-KI-Gesetzes „zurückgezogen“ wurden, hat OpenAI nicht vor, aufzuhören.