Emmentaler und KI
KI-Innovationen wie der Chatbot ChatGPT werden enthusiastisch gefeiert und sie lösen Ängste aus. Ethische Diskussionen zu KI sollten sich nie allein um die Technologie drehen, sagt die Bioethikerin Samia Hurst. Wichtig ist vor allem, dass die sozialen, politischen und ökonomischen Rahmenbedingungen, in denen sie verwendet werden, stimmen.
von Roger Nickl.
© Celia Lazzarotto
Enthusiasmus über ungeahnte Möglichkeiten – und gleichzeitig die Angst davor. Die Reaktionen auf den Chatbot ChatGPT, der im letzten Herbst lanciert wurde, sind ambivalent ausgefallen. Das sagt viel über uns selbst aus. «Wenn neue, disruptive Technologien auf den Markt kommen, ist oft dieser anfängliche Enthusiasmus zu beobachten – gefolgt von Bedenken und Ängsten», sagt Samia Hurst, «der Enthusiasmus erzählt uns etwas über unsere Träume – aber wie wir wissen, können Träume auch sehr beunruhigend sein.» So versprechen KI-Anwendungen beispielsweise, uns viel Arbeit abzunehmen, sie bedrohen damit aber auch Arbeitsplätze und somit die Existenz von Menschen. Und sie geben den Tech-Unternehmen, die sie entwickeln, zunehmend Macht über unser Leben und unsere Daten. Diese Ängste und Bedenken, müssen wir ernst nehmen, sagt Hurst, und wir sollten Lösungen dafür finden, sie möglichst aus dem Weg zu schaffen.
Samia Hurst ist Bioethikern und arbeitet an der Universität Genf und am NCCR Evolving Language. Einem breiteren Schweizer Publikum bekannt wurde sie während der Pandemie als Vizepräsidentin der wissenschaftlichen Covid-Taskforce des Bundes. Aktuell forscht sie zu Fragen der wissenschaftlichen Verantwortung und zum ethischen Umgang mit technologischen und wissenschaftlichen Risiken. Dazu gehören auch die neuesten Entwicklungen in der Künstlichen Intelligenz.
Wie ein Schweizer Taschenmesser
ChatGPT sei wie ein Art Schweizer Taschenmesser, sagt Hurst. Der Chatbot hat zahlreiche Fähigkeiten. Die einen sind hilfreich wie zum Beispiel das schnelle Zusammenfassen von längeren Texten, etwa wissenschaftlichen Artikeln; die anderen eher bedenklich wie das Generieren von Desinformation. «Es ist schwierig sich alle möglichen Vorteile und Risiken, die in solchen KI-Tools schlummern, vorzustellen», sagt die Ethikerin, «unsere limitierte Vorstellungskraft ist deshalb wohl eine der grössten Gefahren in der rasanten aktuellen Entwicklung.»
Um so wichtiger ist, dass die Chancen und Risiken von KI möglichst breit analysiert und diskutiert werden. «Es sollte dabei nie um die Technologie allein gehen, das geht oft vergessen», sagt Samia Hurst, «zentral sein sollten die sozialen und wirtschaftlichen Umstände, in denen die Technologie angewendet wird.» Denn technologische, aber auch wissenschaftliche Innovationen sind nur selten per se gut oder schlecht – die Umstände, in denen sie eingesetzt wird, können aber je nachdem für Menschen positive oder negative Folgen haben.
Radiologinnen und Taxifahrer
Hurst macht dazu ein Beispiel aus der Medizin: So können neu entwickelte Gentests darüber Auskunft geben, ob jemand ein besonderes Risiko hat, eine bestimmte Krankheit zu bekommen. Das positive Resultat eines solchen Test könnte nun dazu führen, dass eine Person von einem Arbeitgeber nicht eingestellt oder von einer Versicherung nicht aufgenommen wird – es sei denn, es gibt dazu rechtliche Bestimmung und Regulierungen, die eine Diskriminierung verhindern. «Die Chancen und Risiken des ein und desselben Tests sind also extrem unterschiedlich in einem Kontext, in dem ein Schutz für Diskriminierung besteht und einem, in dem dies nicht der Fall ist», sagt die Ethikerin.
Ein anderes Beispiel sind KI-betriebene Tools in der Radiologie, die schneller und präziser als Ärztinnen und Ärzte Röntgenbilder und CT-Scans analysieren können. «Das ist eine grossartige Erfindung», sagt Samia Hurst, «denn damit verbessert sich die Diagnostik für Patient:innen – zumindest, für diejenigen die dazu Zugang haben.» Es bedeutet aber auch, dass Radiolog:innen nun weniger Arbeit haben und sich vielleicht nach einem neuen Job ausserhalb ihres Fachgebiets umschauen müssen. Das sei in ihrem Fall wohl nicht so riskant, vermutet Hurst, denn Ärzt:innen seien auf dem Stellenmarkt gesucht. Anders würde es dagegen wohl aussehen, wenn künftig Taxifahrer:innen ihren Job wegen autonomer Fahrzeuge verlieren würden. Ihre Existenz wäre dann wohl gefährdet. «So kann je nach den sozialen und wirtschaftlichen Strukturen, in die jemand eingebettet ist, das Risiko grösser oder geringer sein.»
FDA für IT
Um den Einsatz von KI möglichst fair zu gestalten, sind deshalb weitgehende soziale und wirtschaftliche Abklärungen und begleitende Massnahmen notwendig. «Das können wir nicht den Entwicklern von AI überlassen», sagt Samia Hurst, «das ist auch nicht deren Expertise.» Um die geeigneten Begleitmassnahmen zu identifizieren, müssten jedoch zunächst die gemeinsamen Hausaufgaben gemacht werden, nämlich eine möglichst breite Evaluation von Chancen und Risiken. «Solche umfassenden Abklärungen braucht es, wenn wir zum Bodensatz potenzieller Risiken gelangen wollen», sagt Hurst, «allerdings ist die Menschheit in solchen Dingen zurzeit nicht besonders gut.»
Notwendig sind angesichts des disruptiven Potenzials von KI auch Zukunftsdiskussionen: Etwa zur Frage, wie wir künftig arbeiten werden. Oder, was wir tun wollen, wenn uns die Technologie immer mehr Arbeit abnimmt. Braucht es dann ein unbedingtes Grundeinkommen? Sollten Anwendungen von KI besteuert werden, um einen Teil der damit erzielten Gewinne auf die Verlierer umzuverteilen? Und braucht es Institutionen ähnlich wie die Food and Drug Administration (FDA), die in den USA unter anderem für die Zulassung von Medikamenten zuständig ist? «Eine Art FDA für IT», sagt Samia Hurst, «die als unabhängiges Expertengremium mit einem transparenten Kriterienkatalog bestimmte Anwendungen erlauben oder verbieten kann.»
Weniger Risiken mit dem Schweizer-Käse-Modell
Auch in der Forschung mit ihrem Team beschäftigt sich Samia Hurst mit der Risikoanalyse und -prävention. So untersucht sie zurzeit, wie man die Risiken von potenziell gefährlichen wissenschaftlichen und technologischen Entwicklungen möglichst gut eruieren und minimieren kann. «Es gibt eine anhaltende Diskussion zur so genannten «dual-use»-Forschung», sagt Samia Hurst, «sie beschäftigt sich mit Fragen wie: Was soll man mit einem Paper machen, das zeigt, wie ein Pathogen noch pathogener gemacht werden kann – soll man es publizieren oder lieber nicht?» Einerseits könnte das Thema wissenschaftlich interessant und wertvoll sein; andererseits könnte es von Bioterrorist:innen missbraucht werden.
Ein solcher doppelter Verwendungszweck (dual use) steckt in vielen wissenschaftlichen und technologischen Innovationen und macht sie aus sicherheitstechnischen und ethischen Überlegungen prekär. Ein Beispiel dafür sind Drohnen, die zivil für gute Zwecke, aber auch als Waffen im Krieg eingesetzt werden können. Deshalb müsse man eben möglichst alle Bereiche erkennen und analysieren, in denen Innovationen und wissenschaftliche Resultate nützlich oder schädlich sind, sagt Hurst. Und, betont die Forscherin, es brauche ein effizientes Modell, mit dem Risiken minimiert werden können.
Der englische Psychologe James Reason hat ein solches Modell entwickelt – das so genannte Schweizer-Käse-Modell. Es besagt, dass verschiedene, übereinander gelagerte Schutzschichten, das Eintreten eines unerwünschten Ereignisses vermindern können, obwohl jede einzelne Schutzschicht fehlerhaft ist. Sie hat wie eine dünne Scheibe Emmentaler Löcher. Legt man jedoch – um im Bild zu bleiben – Käsescheiben übereinander und achtetet darauf, dass die Löcher nicht übereinander zu liegen kommen, lässt sich so ein wirksamerer Risikoschutz aufbauen. «Unsere Idee ist nun ein solches Modell zum Schutz vor potenziell schädlichen Forschungsresultaten zu entwickeln, Teil dieses vielschichtigen Schutzmodells sind die Forschenden, wissenschaftliche Verbände, Herausgeber von Zeitschriften, Geldgeber und der Staat», sagt Samia Hurst, «spielen sie gut zusammen, liessen sich Risiken wohl vermindern.» Noch steht Hurst Forschung zu diesem Thema ganz am Anfang – das Gleiche gilt für die Diskussionen, um einen ethischen und verantwortungsvollen Umgang mit Chatbots und KI. Von ihnen wird viel abhängen.