Die KIs sind ausser (demokratischer) Kontrolle
Wir brauchen dringend mehr Aufmerksamkeit, Mittel und Personal, um Regulierungssysteme für KI einzuführen, wie es sie in der Flug-, Pharma- und Nahrungsindustrie gibt, sagt der Wissenschaftler Lê Nguyên Hoang.
Am 29. März ist ein Offener BriefExterner Link erschienen, der fordert, «gigantische KI-Experimente zu pausieren.» Bisher haben ihn mehr als 20’000 Akademiker:innen und Tech-Leaders unterzeichnet. Dieser Aufruf war lange überfällig.
Im Lauf des letzten Jahrzehnts wurden beeindruckende Algorithmen hastig entwickelt und im grossen Stil eingesetzt, namentlich ChatGPT und Midjourney. Ähnliche Künstliche Intelligenzen sind breit kommerzialisiert worden, zur Feststellung von Betrug, dem Filtern von Lebensläufen, Videoüberwachung und Kundenservice (oft obwohl MängelExterner Link und BiasesExterner Link bekannt waren).
Aber ihre Hauptanwendung liegt wohl im Marketing. Viele der Tech-Giganten unserer Zeit, so wie Google, TikTok und Meta, verdienen vor allem am Werbetargeting. Der erste öffentlich bekannte Kunde von ChatGPT ist niemand Geringeres als Coca Cola. Allein dies sollte eine Red Flag sein.
Lê Nguyên Hoang ist Co-Gründer und CEO des Cybersicherheits-Startups Calicarpa und zudem Co-Gründer und Präsident der nicht-gewinnorientierten Tournesol Association. Hoangs YouTube-Kanal «Science4AllExterner Link» hat mehr als 18 Millionen Views erreicht, seit er 2016 lanciert worden ist.
Zudem hat man erlebt, wie Algorithmen Fehlinformationen verbreiten, Pseudo-Medizin empfehlen, die mentale GesundheitExterner Link gefährden und genutzt wurden, um illegale (sogar Sklaverei-)MärkteExterner Link zu koordinieren. Sie haben Hass angetrieben, dabei geholfen, Demokratien zu destabilisieren und sogar zu Genoziden beigetragenExterner Link, gemäss den Vereinten Nationen und Amnesty International. Algorithmen bedrohen die nationale Sicherheit.
Trotzdem bleibt ihre Entwicklung überaus undurchsichtig. Kaum eine Instanz von ausserhalb hat Einblick in die Algorithmen von Google, Meta oder OpenAI. Interne Oppositionskräfte wurden gar entfernt:
Google hat sein Ethik-Team entlassen, Meta hat seine Abteilung für verantwortungsbewusste Innovation demontiert und bei Microsoft musste das Ethik-Team gehen, nachdem es wegen einer übereilten, unethischen und unsicheren Veröffentlichung Alarm geschlagen hat. Mächtige, gewinnorientierte Unternehmen haben erfolgreich einen Weltstaat errichtet, in dem ihre Algorithmen kaum Rechenschaftspflicht haben.
Wirkungsvolle Regulierung von KI ist dringend nötig
Die Software-Industrie ist bei weitem nicht die erste Branche ausser Kontrolle. Über Jahrzehnte hinweg haben die Flug-, die Auto-, die Pharma-, die Nahrungs-, Tabak-, Bau- und Energieindustrie – unter vielen anderen – ungeprüfte Produkte auf den Markt gebracht. Dies hat Millionen Leben gekostet.
Mehr
Die Maschine und die Moral
Die Zivilgesellschaften haben sich schliesslich gegen die fehlende Rechenschaftspflicht gewehrt. In allen Demokratien gibt es nun strenge Gesetze und mächtige, gutausgestattete Regulierungsagenturen, die die demokratische Kontrolle über diese Märkte ausüben. Die Software-Industrie braucht eine ähnliche Aufsicht.
Wir müssen dringen sichere und ethische Technologien bevorzugen, statt von unseren Ländern zu fordern, dass sie vorne mit dabei sind im Rennen um die beeindruckendsten KIs. Konkret: Wie beeindruckend die Algorithmen sind, die unsere Stromnetze, Autos, Flugzeuge, Kraftwerke, Datenzentren, Sozialen Medien und Smartphones betreiben, sollte viel weniger wichtig sein als deren Cybersicherheit.
Wie mein Kollege und ich in einem Buch von 2019Externer Link warnten: Wenn diese Algorithmen brüchig, verletzlich sich, Hintertüren zu einem unzuverlässigen Betreiber haben oder gleich an diesen ausgelagert worden sind – oder wenn sie Menschenrechte verletzen, was üblicherweise der FallExterner Link ist – dann sind wir alle in grosser Gefahr.
Trotzdem behindern die Software-Industrie und Wissenschaft, ebenso wie die momentanen rechtlichen und wirtschaftlichen Anreize, meistens das Sicherheits-Mindset. Zu oft sind die am meisten zitierten, am meisten gefeierten und am meisten finanziell unterstützten Wissenschaftler:innen, die bestbezahlten Stellen im Software-Markt und die erfolgreicheren Firmen jene, die Cybersicherheit und Ethik vernachlässigen. Wie eine wachsende Zahl Expert:innen anerkennen, muss sich dies ändern. Dringend.
Mehr
Ist die Künstliche Intelligenz dumm oder gefährlich?
Unsere Demokratien können sich die Jahrzehnte wahrscheinlich nicht leisten, die nötig waren, um Gesetze und Inspektionsagenturen für andere Länder einzuführen. Im Hinblick auf die Geschwindigkeit, mit der die immer ausgefalleneren Algorithmen entwickelt und veröffentlicht werden, bleibt uns nur ein sehr kleines Zeitfenster, um zu handeln. Der Offene Brief, den ich und andere KI-Forscher:innen unterzeichnet haben, zielt darauf, dieses Fenster ein kleines bisschen zu vergrössern.
Was Sie, Ihre Organisationen und unsere Institutionen tun können
Die kritischsten Algorithmen von heute unter demokratische Kontrolle zu bringen, ist dringend – ein riesiges und vorzügliches Unterfangen, das ohne Beteiligung einer grossen Zahl Individuen mit verschiedenen Talenten, Expertisen und Verantwortlichkeiten nicht rechtzeitig erreicht wird.
Eine erste Herausforderung ist Aufmerksamkeit. Wir müssen alle dringend viel mehr Zeit, Energie und Mittel investieren, um sicherzustellen, dass unsere Kolleg:innen, Organisationen und Institutionen der Cybersicherheit viel mehr Aufmerksamkeit widmen.
Die Angestellten von Big Tech sollten nicht länger eingeladen und gefeiert werden, ohne sie im Hinblick auf die Sicherheit und Ethik der Produkte, die ihr Auskommen sind, zu konfrontieren. Vor allem nicht von Universitäten und den Medien. Generell muss in Tech-Diskussionen die Frage «Was kann schiefgehen?» gestellt werden.
Eine zweite Herausforderung ist institutionell. Es braucht neue Gesetze, aber die heutigen grossen Algorithmen verstossen wahrscheinlich bereits gegen existierende Gesetze – wie dem Profitieren von werbebasiertem BetrugExterner Link. Aber das momentan komplette Fehlen von externer Aufsichtsorganen verhindert, dass dies durchgesetzt wird. Wir müssen von den Gesetzgebenden fordern, dass sie Regulationsagenturen mit guter Finanzbasis einrichten, die online das Recht durchsetzen.
Im Festlegen demokratischer Normen hatte die Schweiz oft die Rolle eines Vorbilds. Dies ist eine Möglichkeit, diese edle Tradition fortzuführen. Weiter hat sich die Genfersee-Region kürzlich zum Ziel gesetzt zum «Trust ValleyExterner Link» im Bereich digitales Vertrauen und Cybersicherheit zu werden. Damit man weltweit als solches anerkannt wird, ist das Stärken von Inspektion und Cybersicherheits-Organisationen zentral.
Eine dritte Herausforderung liegt im Kreieren demokratisch kontrollierter, sicherer Alternativen zu den heute wirkungsvollsten Algorithmen. Das ist, woran ich in den letzten fünf Jahren vor allem gearbeitet habe. Meine Kolleg:innen und ich haben dazu das Non-Profit-Projekt TournesolExterner Link aufgebaut. Im Prinzip ist Tournesols Algorithmus das Produkt einer sicheren und fairen Abstimmung der Tournesol-Community, die jedem offensteht.
Je schneller wir die Sicherheit unserer Informations-Ökosysteme an die erste Stelle setzen, je schneller haben wir die Chance, unsere Gesellschaften von den jetzigen, massiven Cybersicherheits-Schwächen zu schützen.
Eine Pause bei der weiteren Erforschung? Wird es nicht geben, glaubt KI-Forscher Jürgen Schmidhuber:
Mehr
Regierungen und Unternehmen werden das KI-Rennen nicht stoppen
Editiert von Sabina Weiss. Übertragung aus dem Englischen: Benjamin von Wyl
Die in diesem Artikel geäusserten Ansichten sind ausschliesslich jene des Autors und müssen sich nicht mit der Position von SWI swissinfo.ch decken.
In Übereinstimmung mit den JTI-Standards
Einen Überblick über die laufenden Debatten mit unseren Journalisten finden Sie hier. Machen Sie mit!
Wenn Sie eine Debatte über ein in diesem Artikel angesprochenes Thema beginnen oder sachliche Fehler melden möchten, senden Sie uns bitte eine E-Mail an german@swissinfo.ch