KI und Ethik: Kampf um Vertrauen

Veröffentlicht: 2018-10-02

Ich habe kürzlich am KI-Kongress und am Data Science Summit in London teilgenommen und dabei unbedingt an der Podiumsdiskussion mit dem Titel „Ethik und KI“ teilgenommen. Die Diskussionsteilnehmer waren Harriet Kingaby, die Mitbegründerin von Not Terminator, und Emma Perst, die Geschäftsführerin von DataKind UK.

Ethik ist eine so interessante Diskussion und vielleicht der wichtigste Aspekt bei der Entwicklung künstlicher Intelligenz (KI). Letztes Jahr haben wir The Marketers Field Guide to Machine Learning veröffentlicht und das Thema KI und Ethik neben Themen wie Fairness, Erklärbarkeit und Sicherheit diskutiert. Wenn KI völlig unethisch entwickelt würde, würden wir das Vertrauen in sie vollständig verlieren, also müssen wir sie im Auge behalten.

In unserem E-Book haben wir besprochen:

Bisher wurden ML und KI hauptsächlich eingesetzt, um niedrigere, hauptsächlich alltägliche Aufgaben auszuführen, um die Produktivität zu verbessern. Aber bald können sie in der Lage sein, buchstäblich über Leben und Tod zu entscheiden. Ein selbstfahrendes Auto wird nicht nur dafür verantwortlich sein, seine Insassen sicher an ihr Ziel zu bringen, sondern auch alle anderen um sie herum zu schützen. Es ist nur eine Frage der Zeit, wann ein selbstfahrendes Auto in eine unmögliche Situation gerät; ein Unfall unvermeidbar ist, hat er nur die Wahl, ob er links auf Fußgänger A oder rechts auf Fußgänger B lenkt. Wie würde das KI-System unter der Haube entscheiden, welche Maßnahmen zu ergreifen sind? Anhand der Größe? Alter? Sozialer Status? Und wenn die Unfallermittler versuchen, festzustellen, was das Ergebnis beeinflusst hat, würden sie dann eine ethisch beunruhigende Logik darin finden?

Tatsächlich haben uns diese Fragen damals verwirrt, aber wir haben seitdem einige der Ergebnisse gesehen. Das Thema Ethik und KI wird nicht nur in Konferenzräumen und an Universitäten diskutiert, es hat seinen Weg in die Gesetzgebung gefunden und wird bald in das Gefüge unserer Funktionsweise als Gesellschaft eingenäht sein.

Gute und schlechte KI – in einem Jahr kann viel passieren

Seit der Veröffentlichung unseres E-Books zum maschinellen Lernen vor weniger als einem Jahr gab es viele KI-Entwicklungen (im Guten wie im Schlechten).

Tesla hat Autopilot-Unfälle mit selbstfahrenden Autos gemeldet, und Technologien wie Deepfake sind aufgetaucht, wobei Deep-Learning-Technologie verwendet werden kann, um digitale Medien zu erstellen, indem Bilder von realen Personen in Situationen eingeblendet werden, an denen sie nicht teilgenommen haben, mit der Absicht, gefälschte Nachrichten zu erstellen oder Scherze.

Bei einem schrecklich unglücklichen Vorfall tötete ein selbstfahrendes Uber-Auto einen Fußgänger . Diese Tragödie ereignete sich, weil unsere Gesellschaft einer KI-Technologie vertraute. Obwohl sich später herausstellte, dass menschliches Versagen bei dem Unfall eine Rolle gespielt hat, ist es schwierig zu sagen, dass die Technologie nicht intelligent genug ist , um sich selbst überlassen zu werden , wenn man diese Dinge als KI bezeichnet . Trotz dieser schrecklichen Tragödie kündigen Autohersteller ( und Ikea ) weiterhin neue Pläne für selbstfahrende Autos an.

Und während die Ethik der KI wegen ihres Schadenspotenzials zur Diskussion steht, ist es das gleiche Vertrauen in ihre Entwicklung, das auch zu den vielen erstaunlichen Ergebnissen geführt hat, von denen wir derzeit profitieren.

Technologie ist wie immer Teil des Problems und Teil der Lösung. Betrachten Sie das schnelle Entwicklungstempo und die täglich neu auftauchenden Anwendungen der KI wie:

  • KI zur Analyse von Tumorbildern und zur Erkennung von Lungenkrebsarten
  • KI, die jeden zu einem großartigen Fotografen macht
  • KI, die Serverfarmen effizienter machen kann

Sie haben vielleicht schon von diesen faszinierenden und nützlichen Technologien gehört. Die mediale Sensation rund um Tragödien ist viel häufiger. Hype und Aufregung umgibt Fehler der KI-Technologie, weil sie viel mehr Aufmerksamkeit auf sich zieht; von den alltäglichen, oft urkomischen Fehlern von KI-Assistenten bis hin zu Geschichten über ernstere Datenschutzbedenken .

Der Punkt ist, ob Sie davon hören oder nicht, KI tut viele positive Dinge, trotz ihrer stark publizierten Fehler. Diese Irrungen und Wirrungen haben die Leute ins Gespräch gebracht, und die Diskussionen auf höherer Ebene werden sicherlich dazu beitragen, unsere Zukunft zu gestalten.

Eine organisierte Anstrengung, KI ethisch zu entwickeln

Viel beachtete Fehler, akademische Brüche und gebrochene technologische Grenzen rund um die KI-Entwicklung haben die Aufmerksamkeit von Führungskräften weltweit auf sich gezogen. Denn KI ist bereits im Einsatz und die Zivilgesellschaft bereitet sich auf vielfältige Weise auf eine breite Akzeptanz vor.

Regierungen und Verbände müssen dies beobachten und darüber sprechen. Und gut, dass sie es sind. Hier ist eine kurze Liste von Beispielen aus dem Kopf:

  • Ausbildung zukünftiger KI-Technologen, um die Technologie zum Nutzen der Menschheit voranzutreiben ( AI4ALL ).
  • Die Vereinten Nationen arbeiten daran, zu verstehen, wie sie dazu beitragen können, Wirtschaftswachstum zu erzielen und für das Gemeinwohl zu arbeiten
  • Erforschung der gesellschaftlichen Implikationen von KI ( AI Now Institute )
  • Aufruf an führende Technologieunternehmen in einem offenen Brief , sich für eine menschenzentrierte, transparente und vertrauensbasierte Entwicklung von Technologie einzusetzen
  • KI zum Teil der parlamentarischen Arbeit machen: UK House of Lords Select Committee on Artificial Intelligence , um die wirtschaftlichen, ethischen und sozialen Auswirkungen von KI zu prüfen

Ethisches Betriebssystem

Ethisches Betriebssystem ist die Praxis, einen Rahmen zu schaffen, der versucht, die technologische Entwicklung zukunftssicher zu machen, indem zukünftige technische und Reputationsrisiken minimiert werden. Sie berücksichtigt nicht nur, wie eine neue Technologie die Welt zum Besseren verändern kann, sondern auch, wie sie Dinge beschädigen oder missbraucht werden könnte.

Dieses Betriebssystem schlägt einige allgemeine Bereiche vor, die berücksichtigt werden sollten:

  • Wahrheit und Desinformation
    Kann die Technologie, an der Sie arbeiten, in ein Werkzeug umgewandelt werden, mit dem Dinge „gefälscht“ werden können?
  • Sucht
    Es ist großartig für den Schöpfer eines neuen Tools, dass es so beliebt ist, dass die Leute viel Zeit damit verbringen, aber ist es gut für ihre Gesundheit? Kann das Tool effizienter gestaltet werden, damit die Menschen ihre Zeit gut verbringen, aber nicht endlos? Wie kann es gestaltet werden, um einen moderaten Gebrauch zu fördern?
  • Ungleichheit
    Wer hat Zugriff und wer nicht? Werden diejenigen, die keinen Zugriff haben, negativ beeinflusst? Wirkt sich das Instrument negativ auf das wirtschaftliche Wohlergehen und die soziale Ordnung aus?
  • Ethik
    Sind die Daten, die zum Aufbau der Technologie verwendet werden, in irgendeiner Weise voreingenommen? Verstärkt die Technologie die bestehende Voreingenommenheit? Ist das Team, das die Tools entwickelt, ausreichend vielfältig, um Vorurteile während des Prozesses zu erkennen? Ist das Tool transparent genug, damit andere es „überprüfen“ können? Beispiel für KI zum Einstellen, um Vorurteile zu beseitigen – aber was ist mit ihren Schöpfern, welche Vorurteile könnten sie haben?
  • Überwachung
    Kann eine Regierung oder ein Militär die Technologie in ein Überwachungsinstrument verwandeln oder sie verwenden, um die Rechte der Bürger anderweitig einzuschränken? Erlauben es die gesammelten Daten, den Benutzern während ihres gesamten Lebens zu folgen? Wen möchten Sie nicht für ihre Zwecke auf diese Daten zugreifen lassen?
  • Datenkontrolle
    Welche Daten sammeln Sie? Brauchst du es? Profitieren Sie davon? Beteiligen sich Ihre Benutzer an diesem Gewinn? Haben die Nutzer Rechte an ihren Daten? Was würden schlechte Schauspieler mit diesen Daten machen? Was passiert mit den Daten, wenn Ihr Unternehmen übernommen wird?
  • Implizites Vertrauen
    Hat Ihr Techniker Benutzerrechte? Sind die Begriffe klar und leicht verständlich? Verstecken Sie Informationen vor den Benutzern, die ihnen wichtig sein könnten? Können Benutzer sich für bestimmte Aspekte an- und abmelden, während sie die Technologie weiterhin verwenden? Sind alle Benutzer gleich geschaffen?
  • Hass und andere Verbrechen
    Kann die Technologie für Mobbing oder Belästigung verwendet werden? Kann es benutzt werden, um Hass zu verbreiten, andere zu diskriminieren? Kann es bewaffnet werden?

Es gibt viele Bereiche zu berücksichtigen, aber jeder hat seine eigenen Implikationen, die nicht zum Lachen sind. Laut Ethical OS können die Risiken, sobald sie mit einer potenziellen KI-Entwicklung identifiziert wurden, unter den Interessengruppen geteilt werden, um das Problem vollständig zu untersuchen.

Auf dem Weg zu einer intelligenten und ethischen Zukunft

Das Panel, an dem ich auf dem KI-Kongress und dem Data Science Summit teilnahm , endete mit zusätzlichen Strategien, um KI-Entwicklern zu helfen, ethischer voranzukommen. Sie sagten, dass Tech-Ethik in die Geschäftskultur integriert und Teil einer Unternehmensvision sein sollte und dass ethische KI-Kopfgeldjäger ähnlich wie Insektenjäger agieren könnten!

Da wichtige Verbraucherschutzgesetze wie die DSGVO und der California Consumer Privacy Act von 2018 in Kraft treten, sehen wir bereits, wie Fortschritte in der Datenwissenschaft von der Politik geprägt werden.

Einige Hypothesen deuten darauf hin, dass Regulierungen die KI-Entwicklung verlangsamen werden. Dies kann zwar während des Prozesses passieren, aber wenn die Verbraucher mehr Vertrauen haben, dass ihre Daten und persönlichen Informationen nicht missbraucht werden, kann dies das Vertrauen in den Prozess stärken. Das könnte sogar zu einer verstärkten Nutzung und Akzeptanz führen – wer weiß.

Wir haben sicherlich nicht alle Antworten, aber wir verfolgen die Diskussion aufmerksam.

Bildnachweis

Beitragsbild: Unsplash / Markus Spiske