Lernen, wie die KI Entscheidungen trifft

2017 veröffentlichte ein palästinensischer Bauarbeiter in der Siedlung Beiter Illit, Jerusalem, im Westjordanland ein Foto von sich auf Facebook, in dem er sich an einem Bulldozer anlehnte. Kurz darauf verhaftete ihn die israelische Polizei mit dem Verdacht, dass er einen Angriff plante, weil die Beschriftung seines Posten "angegriffen" lautete.

Nur dass dies nicht der Fall war. Die eigentliche Bildunterschrift des Beitrags war "Guten Morgen" auf Arabisch. Aus unbekannten Gründen hat der Übersetzungsdienst von Facebook mit künstlicher Intelligenz den Text übersetzt, um sie auf Englisch "zu verletzen" oder auf Hebräisch "anzugreifen". Die israelische Verteidigungsmacht verwendet die automatisierte Übersetzung von Facebook, um die Konten palästinensischer Benutzer auf mögliche Bedrohungen zu überwachen. In diesem Fall vertrauten sie der KI von Facebook genug, um die Stelle vor der Verhaftung nicht von einem arabischsprachigen Offizier prüfen zu lassen.

Der palästinensische Arbeiter wurde schließlich freigelassen, nachdem der Fehler aufgedeckt worden war – aber nicht bevor er stundenlang verhört wurde . Facebook entschuldigte sich für den Fehler und sagte, er habe Schritte unternommen, um ihn zu korrigieren.

Fortschritte im Bereich des tiefen Lernens und der neuronalen Netze haben die Präzision der KI-Algorithmen verbessert und die Automatisierung von Aufgaben ermöglicht, die bisher als ausschließliche Domäne der menschlichen Intelligenz angesehen wurden. Die Präzision in der Leistung geht jedoch mit Transparenz einher. Im Gegensatz zu herkömmlicher Software haben wir nicht immer eine genaue Vorstellung davon, wie tief lernende Algorithmen funktionieren. Die Fehlerbehebung ist sehr schwierig und sie scheitern oft auf unerwartete und unerklärliche Weise. Sogar die Entwickler von Deep-Learning-Algorithmen sind oft schwer in der Lage, die Logik ihrer Entscheidungen zu untersuchen und zu interpretieren.

Der Misserfolg des maschinellen Übersetzungssystems von Facebook ist nur einer der vielen Fälle, in denen die Opazität von Deep-Learning-Algorithmen besteht hat weitaus größere Probleme verursacht.

Das weithin als "Black-Box" -Problem bekannte KI ist zu einem Schwerpunkt akademischer Institutionen, Regierungsbehörden und Technologieunternehmen geworden, die nach Methoden suchen, um KI-Entscheidungen zu erklären oder eine KI zu schaffen, die transparenter ist offen für Untersuchungen.

Ihre Bemühungen werden für die Entwicklung der KI-Industrie von entscheidender Bedeutung sein – zumal tiefes Lernen in kritische Bereiche vordringt, in denen Fehler lebensverändernde Folgen haben können.

Der Aufstieg des tiefen Lernens

Bei klassischen Ansätzen zur Erstellung von Software geben die Entwickler die Regeln, die das Verhalten eines Systems definieren, akribisch an. Im Gegensatz dazu entwickeln Deep-Learning-Algorithmen ihr Verhalten, indem sie zahlreiche Beispiele untersuchen und vergleichen. Das Konzept und die Wissenschaft hinter Deep Learning gibt es seit Jahrzehnten, aber erst in den letzten Jahren hat die Fülle an Daten- und Rechenressourcen es aus Forschungslaboren und wissenschaftlichen Arbeiten in die Praxis getrieben. Mit zunehmender Popularität hat tiefgreifendes Lernen die Art und Weise, wie Entwickler Software erstellen, verändert.

Für Kate Saenko, die seit den frühen 2000er Jahren im Bereich Computer Vision tätig ist, sind diese Änderungen sehr greifbar. Computer Vision ist ein Bereich künstlicher Intelligenz, mit dem Computer den Kontext und Inhalt digitaler Bilder und Videos verarbeiten und verstehen können. Hierbei handelt es sich um eine Technologie, die in einer Vielzahl von Bereichen eingesetzt wird, darunter Bildklassifizierung, Gesichtserkennung und die automatisierte Diagnose von MRI- und Röntgenbildern. Dies ist einer der Bereiche, in denen die regelbasierte Programmierung in der Vergangenheit Probleme hatte, da die Anzahl der Regeln, die Entwickler aufschreiben müssen, praktisch unbegrenzt ist.

"Damals hatten wir eine ganz andere Herangehensweise, als Sie Ihre Funktionen zuerst entwarfen und viel Denk- und Designprozess ging in diese Sache ein ", sagte Saenko, ein außerordentlicher Professor an der Fakultät für Informatik der Boston University.

Wenn Entwickler beispielsweise Katzen entdecken wollten, mussten sie den Code manuell schreiben könnte Bilder auf Katzenmerkmale wie Köpfe oder Schwänze untersuchen. "Sie haben diese Funktionen zuerst entwickelt, und dann haben Sie Methoden entwickelt, um diese Funktionen zu extrahieren. Und dann würden Sie zusätzlich zu den Funktionen maschinelles Lernen", sagte Saenko.

Der Prozess war mühsam und langwierig, da jede dieser Funktionen variieren kann in Form und Größe, abhängig von der Tierart und dem Aufnahmewinkel.

Ein tief lernender Algorithmus, der Bilder als "Katze" oder "Nicht Katze" klassifizieren soll, braucht dagegen nur viele Katzenbilder gegeben werden. Es erstellt eigene Regeln, um zu ermitteln, wie Katzen in Bildern erkannt werden, und bietet eine bessere Leistung als frühere Methoden, bei denen viele manuell geschriebene Funktionen zum Einsatz kamen. Im Jahr 2012 nutzten Forscher der University of Toronto zum ersten Mal tiefes Lernen, um einen berühmten Computer-Vision-Wettbewerb zu gewinnen und das Feld deutlich zu verbessern. Deep Learning hat seinen Weg in viele andere Bereiche gefunden, darunter Spracherkennung, Verarbeitung natürlicher Sprache, Betrugserkennung und Kunst.

"Der Grund, warum Deep Learning so erfolgreich ist, liegt darin, dass in neuronale Netze nur wenig Design eingebaut wird", sagte er Saenko "Wir lassen den Computer nur das nützlichste Muster aus den Rohdaten herausfinden. Wir werden nicht sagen, wonach er suchen soll. Wir werden ihm keine hochrangigen Funktionen mitteilen. Wir lassen ihn alle seine Funktionen durchsuchen trainieren Sie Daten und finden Sie die Muster, die bei der Lösung des Problems zu höchster Genauigkeit führen. "

Die Herausforderungen beim Debuggen von Deep-Learning-Software

Die Vorteile, die das Deep Learning mit Genauigkeit bringt, sind nicht ohne Kompromisse. [19659002] "Bei der klassischen Computerprogrammierung haben Sie genaue Algorithmen. Sie wissen genau, was Sie tun", sagte Sheldon Fernandez, CEO von DarwinAI, einem in AI ansässigen AI-Unternehmen. "Beim tiefen Lernen ist das Verhalten datengesteuert. Sie schreiben dem System kein Verhalten vor. Sie sagen:" Hier sind die Daten, finde heraus, was das Verhalten ist. " Das ist von Natur aus ein unscharfer und statistischer Ansatz. "

Dies bedeutet, dass wenn Sie einem neuronalen Netzwerk ein eigenes Verhaltensmodell entwickeln, verlieren Sie grundsätzlich den Überblick über seinen Denkprozess. Und meistens sind die inneren Parameter und Verbindungen, die neuronale Netze entwickeln, so zahlreich und komplex, dass sie für den Menschen zu schwer zu verstehen sind.

 Eine vereinfachte Ansicht, wie Daten in neuronalen Netzwerken fließen.

Eine vereinfachte Ansicht, wie Daten aussehen fließt in neuronalen Netzen.

Bild: Akritasa / wikimedia commons

Wie Saenko erklärte, müssen Ingenieure bei der Verwendung von Deep Learning "zwischen dem von Menschen auferlegten Top-Down-Entwurf wählen, um sie deutlicher zu machen im Vergleich dazu, wie viel Leistung Sie dadurch verlieren. "

Auch die Argumentation, die ein neuronales Netzwerk entwickelt, spiegelt nicht notwendigerweise die des Menschen wider, obwohl es die meiste Zeit genaue Ergebnisse liefert.

" Das Reale Die Herausforderung des tiefen Lernens besteht darin, dass es sich nicht um das Modellieren, sondern um die Welt um ihn herum handelt, sondern um die Daten, die er erhält ", sagte Fernandez. "Und diese Modellierung beinhaltet oft Verzerrungen und problematische Korrelationen. Sie kann unsinnige Korrelationen enthalten. Und all diese Dinge können [their] einen Weg in das Verhalten des Systems finden."

Vor einiger Zeit entwickelte Seanko einen Deep-Learning-Algorithmus Captured Bilder und Videos mit beeindruckender Genauigkeit. Das Problem bestand darin, dass ihre Bildunterschriftenanwendung eine Tendenz zu bestimmten Arten von Entscheidungen entwickelt hatte, ein Problem, das bei tiefgreifenden Algorithmen häufig vorkommt. In Kochvideos zum Beispiel wurden Küchenarbeiter oft als Frauen bezeichnet – selbst wenn sie Männer waren. Andererseits war der Algorithmus in wissenschaftlichen Videos eher geneigt, Wissenschaftler als Männer zu bezeichnen. Sie konnte jedoch nicht mit Sicherheit feststellen, warum das Netzwerk die Fehler machte. Und ohne die Gründe für diese Fehler finden zu können, konnte sie sie nicht beheben.

In einigen Fällen kann die Opazität von AI-Algorithmen zu Frustration führen. In anderen Fällen kann es jedoch schwerwiegendere Folgen haben, die Gründe für KI-Entscheidungen nicht erklären zu können.

Fernandez, damals Informatiker bei Avande, einem IT-Beratungsunternehmen, nutzte 2017 tiefes Lernen, um einer Bank zu helfen Großbritannien entdeckt betrügerische Transaktionen. Sie trainierten im Grunde das tiefe neuronale Netzwerk mit allen historischen Daten der Bank und ließen es die Muster erkennen, die betrügerische Transaktionen definierten.

Ihr Algorithmus war in der Lage, Betrug um 3 oder 4 Prozent besser zu erkennen als das Best-In des Kunden -Klassensystem. Das Problem war, dass sie keine Ahnung hatten, warum es besser lief. "Wir hatten keinen Einblick in die Daten, die das neuronale Netzwerk auslöste, um bessere Vorhersagen treffen zu können", sagte Fernandez.

Natürlich könnte der Kunde keine empfindlichen finanziellen Entscheidungen auf ein automatisiertes System übertragen, wenn sie das nicht verstehen die Logik hinter ihren Entscheidungen.

Die Finanzindustrie ist eine von mehreren Bereichen, in denen die Interpretierbarkeit zur Voraussetzung für die Verwendung von AI-Algorithmen bei kritischen Entscheidungen geworden ist. Andere Bereiche, in denen die Undurchsichtigkeit des tiefen Lernens zur Hürde geworden ist, umfassen Gesundheitswesen und Medizin, Personalbeschaffung und Personalwesen, Strafjustiz und Militär. In all diesen Bereichen kann eine schlechte Entscheidung negative und irreversible Auswirkungen auf die Karriere, die Gesundheit oder das Leben eines oder mehrerer Menschen haben und schwerwiegende rechtliche Folgen für die Person haben, die diese Entscheidung trifft. Aus diesem Grund stehen Experten im Allgemeinen skeptisch gegenüber dem Vertrauen in ein automatisiertes System, um Entscheidungen in ihrem Namen zu treffen.

Darüber hinaus erfordert die im Mai in Kraft getretene Allgemeine Datenschutzverordnung der Europäischen Union (GDPR), dass Organisationen, die automatisierte Entscheidungen treffen, diese bereitstellen aussagekräftige Informationen über die Informationen und die Logik, die an diesen Entscheidungen beteiligt sind, wenn Benutzer oder Kunden dies verlangen. Die DSGVO, die für alle Unternehmen und Organisationen, die in der EU-Zone Geschäfte tätigen, rechtlich bindend ist, gilt als de facto für alle Tech-Unternehmen, die mit personenbezogenen Daten umgehen.

"Eine der wahren Mächte Die erklärbare KI soll veranschaulichen, wie die KI Datenpunkte auslöst, um eine Entscheidung zu treffen, und diese Daten einem Menschen zur Verifizierung zur Verfügung stellt ", sagte Fernandez.

Untersuchung der KI-Blackbox

Es gibt im Allgemeinen zwei Wege Entscheidungen, die durch neuronale Netzwerke getroffen werden, interpretierbar machen. Die erste, "lokale Erklärung" genannt, versucht die Motive und Parameter hinter den individuellen Entscheidungen eines AI-Algorithmus zu verstehen. "Globale Erklärungen" versuchen, die allgemeine Logik eines KI-Modells zu beschreiben.

Nachdem ihre neuronalen Netze nicht die Gründe dafür enthüllten, dass sie Videos und Bilder falsch benannten, engagierten sich Saenko und ein Team von Forschern der Boston University in einem Projekt die Parameter, die diese Entscheidungen beeinflussten.

Was sich aus den Bemühungen ergab, war RISE, eine Methode, die versucht, die von AI-Algorithmen getroffenen Entscheidungen zu interpretieren. Abkürzung für "Randomized Input Sampling zur Erklärung von Black-Box-Modellen" ist RISE ein lokales Erklärungsmodell.

Wenn Sie ein Bildklassifizierungsnetzwerk mit einer Bildeingabe versehen, wird eine Reihe von Klassen zurückgegeben, denen jeweils eine zugeordnet ist eine Wahrscheinlichkeit Normalerweise haben Sie keinen Einblick, wie die KI diese Entscheidung getroffen hat. RISE bietet Ihnen jedoch eine Heatmap, die beschreibt, welche Teile des Bildes zu jeder dieser Ausgabeklassen beitragen.

 RISE ist eine Methode, die versucht, Entscheidungen über Bilder zu erklären, die durch AI-Algorithmen mit einer Heatmap erstellt wurden.

RISE is eine Methode, die versucht, Entscheidungen über durch AI-Algorithmen gemachte Bilder mit einer Heatmap zu erklären.

Bild: Cornell uniVERSITY-Bibliothek

Im obigen Bild ist es klar, dass das fragliche Netzwerk braune Schafe für Kühe hält. was bedeuten könnte, dass es nicht genug Beispiele für braune Schafe trainiert hat. Diese Art von Problem tritt häufig auf. Mit der RISE-Methode konnte Saenko herausfinden, dass ihre neuronalen Netzwerke das Geschlecht der Menschen in den Kochvideos anhand von Töpfen und Pfannen und anderen Objekten angaben, die im Hintergrund erschienen, anstatt ihre Gesichts- und Körpermerkmale zu untersuchen.

Die Idee hinter RISE ist, Teile des Eingabebildes zufällig zu verschleiern und durch das neuronale Netzwerk laufen zu lassen, um zu beobachten, wie sich die Änderungen auf die Ausgabegewichte auswirken. Durch mehrmaliges Wiederholen des Maskierungsvorgangs kann RISE feststellen, welche Teile des Bildes für jede Ausgabeklasse wichtiger sind.

 Wie RISE funktioniert: Es verschleiert zufällig Teile eines Eingabebildes und führt sie durch das neuronale Netzwerk, um es zu beobachten Wie die Änderungen die Ausgabegewichte beeinflussen.

Funktionsweise von RISE: Es verschleiert zufällig Teile eines Eingabebildes und führt sie durch das neuronale Netzwerk, um zu beobachten, wie sich die Änderungen auf die Ausgabegewichte auswirken.

Bild: CORNELL UNIVERSITY LIBRARY [19659023] Da RISE durch Eingabe von Eingaben arbeitet, handelt es sich um eine "Black-Box" -Methode für Erklärungen, das heißt, es ist modellunabhängig: Es kann mit jedem KI-Modell verwendet werden, ohne dass auf das Innenleben oder die Trainingsbeispiele zugegriffen werden muss.

Methoden wie RISE können auch dazu beitragen, das Vertrauen der Endanwender von AI-Algorithmen in Bereichen wie der Radiologie aufzubauen. "Wenn Sie einem Arzt und einem KI ein Bildmodell zur Verfügung stellen, das ein medizinisches Bild oder eine MRT betrachten und Krebs mit sehr hoher Genauigkeit erkennen kann, vertrauen sie oft immer noch nicht darauf, weil sie nicht wissen, warum sie diese Entscheidung treffen", Saenko sagte. RISE kann erklären, warum eine KI eine Diagnose vornimmt, indem sie darauf hinweist, welche Teile des Bildes für die von ihr gemeldeten Symptome relevant sind.

Suchen nach, was nicht da ist

Die meisten KI-Erklärungsmethoden konzentrieren sich auf das Vorhandene in der Eingabe. Wenn man sich jedoch auf das Vermisste konzentriert, kann man sich ein besseres Bild von den Hintergründen der KI-Entscheidungen machen.

"Wenn Sie mir einen Kollegen beschreiben wollen, ist eine sehr natürliche Erklärung, die Sie verwenden könnten:" Er hat lange Haare und ist groß, aber er trägt keine Brille ", sagte Amit Dhurandhar, Wissenschaftler bei IBM Research. "Keine der Methoden, die lokale Erklärungen für KI-Modelle liefern, greift diese Idee jedoch explizit ein."

Contrastive Explainable Method (CEM), ein gemeinsames Projekt von Forschern von IBM und der University of Michigan, versucht, die von neuronalen Entscheidungen getroffenen Entscheidungen zu beschreiben Netzwerke, indem Sie darauf hinweisen, was in der Eingabe nicht angezeigt wird. Wie RISE ist CEM eine lokale Erklärungsmethode, dh es versucht, individuelle Entscheidungen eines AI-Algorithmus zu interpretieren.

Grundsätzlich versucht CEM wie andere lokale Erklärungsmethoden, Ihnen zu erklären, warum ein bestimmtes neuronales Netzwerk Ihre Eingaben klassifiziert hat einen bestimmten Weg. Es sagt Ihnen aber auch, was zur Eingabe hinzugefügt werden könnte, um die Klasse zu ändern. Das folgende Bild wurde beispielsweise aus einem Klassifizierer für Ziffern extrahiert, die durch die CEM-Sonde laufen. Auf der linken Seite befindet sich das ursprüngliche Eingabebild und die ursprüngliche Vorhersage des neuronalen Netzwerks. Die mittleren Bilder markieren in Cyan, welche Teile des Bildes zur ursprünglichen Vorhersage beigetragen haben. Auf der rechten Seite zeigen die rosa Hervorhebungen die minimalen Ergänzungen, die zu einer Änderung der Vorhersage führen könnten.

 CEM ist eine andere Methode zur Interpretation einzelner Entscheidungen eines AI-Algorithmus, wobei Teile eines Bildes in Cyan (Mitte) hervorgehoben werden, um zu zeigen, was trug zur ursprünglichen Vorhersage (links) bei und zeigte mögliche Ergänzungen in Rosa (rechts), die zu einem anderen Ergebnis führen könnten.

CEM ist eine andere Methode zur Interpretation einzelner Entscheidungen eines AI-Algorithmus, wobei Teile eines Bildes in Cyan hervorgehoben werden (Mitte) um zu zeigen, was zur ursprünglichen Vorhersage beigetragen hat (links), und mögliche Ergänzungen in Rosa (rechts), die zu einem anderen Ergebnis führen könnten.

Bild: Universitätsbibliothek Cornell

Wie Dhurandhar erklärte, ist die medizinische Diagnose Eines der Gebiete, das von dieser Erklärungsmethode sehr profitieren kann, denn die Ärzte kommen nicht nur zu Schlussfolgerungen, wenn sie nach den vorhandenen Symptomen suchen, sondern auch nach den fehlenden. [196590] 02] "Wenn Sie zu einem Arzt gehen, werden dort Fakten erfasst, beispielsweise ob Ihre Herzfrequenz normal war. Aber sie schreiben auch Dinge wie Arrhythmien und eine Reihe von Dingen, die nicht vorhanden waren ", sagte Dhurandhar." Der Grund ist, dass der Arzt bei Ihrer nächsten Untersuchung, wenn Sie ein Problem haben, weiß, worauf Sie untersucht wurden. Wenn Sie einen Arzt wechseln, ist es für die andere Person leicht, Ihren Diagnoseprozess zu kennen. "

Daher ist ein Arzt mit Methoden wie CEM besser in der Lage, eine automatisierte Entscheidung sowohl nach positiven als auch nach negativen Faktoren zu untersuchen

Verständnis des allgemeinen Verhaltens von KI-Modellen

Während lokale Modelle bei der Untersuchung einzelner KI-Entscheidungen hilfreich sind, erfordern einige Domänen vollständige Transparenz des Verhaltensmodells der von ihnen verwendeten Software.

Vor einigen Jahren entwickelte Dhurandhar Ein tiefes Lernmodell, das einem Halbleiterchip-Hersteller dabei half zu prognostizieren, welche Chips wahrscheinlich im weiteren Verlauf der Produktion defekt werden würden: Das Modell entwickelte sich viel besser als die bisherige Vorhersagesoftware des Unternehmens und ermöglichte es, Chips in frühen Produktionsstadien zu verwerfen oder zu reparieren und seine Ausbeute um einige Prozent verbessern, was zu Kosteneinsparungen in Millionenhöhe pro Jahr führte.

Aber die Ingenieure kontrollieren das System , deren Jobs auf dem Spiel standen, waren nicht bereit, die KI Entscheidungen treffen zu lassen, ohne genau zu wissen, wie sie funktionierte. Was sie wollten, war, ihre Originalsoftware zu verbessern, anstatt sie durch eine Black Box zu ersetzen, die, wenn auch genauer, ihnen keine Einblicke in ihre Funktionsweise geben würde.

"In vielen Bereichen gibt es einen Menschen, der das Finale macht Entscheidung – selbst wenn Sie ein leistungsfähigeres Modell haben und die Person nicht versteht, ist die Gesamtleistung des Systems möglicherweise niedriger als bei einem Modell mit niedrigerer Leistung, das die Person verstehen kann ", sagte Dhurandhar.

Mit der Verbesserung einfacher Modelle mit Vertrauensprofilen, einer weiteren KI-Erklärungsmethode, die Dhurandhar gemeinsam mit anderen Forschern bei IBM entwickelt hat, wird dieses Problem gelöst, indem versucht wird, das Verhalten neuronaler Netzwerke auf interpretierbare Softwarestrukturen zu übertragen. Dies ist ein globales Erklärungsmodell, das heißt, anstatt zu versuchen, individuelle Entscheidungen zu interpretieren, versucht er, ein allgemeines Bild von der Funktionsweise eines KI-Modells zu zeichnen.

Dhurandhar beschreibt die "Verbesserung einfacher Modelle" -Methode als "best of" Beide Welten "bedeutet, von den Verbesserungen zu profitieren, die ein neuronales Netzwerk bietet, während es anderen Einschränkungen unterliegt, die von Domain-Experten auferlegt werden.

Die Methode beinhaltet das Einfügen von Software-Sonden in die verschiedenen Schichten eines neuronalen Netzwerks und die Überwachung ihres Verhaltens während des Trainings an Beispielen und entwickelt. In späteren Phasen versuchen diese Tests, das beobachtete Verhalten des Netzwerks in einem Entscheidungsbaum, einer regelbasierten Struktur oder einem anderen Modell, das interpretierbar ist, zu replizieren. Im Fall des Halbleiterunternehmens konnte Dhurandhar das Verhalten des neuronalen Netzwerks in der bereits verwendeten Softwarestruktur abbilden.

Das resultierende Modell funktionierte nicht so gut wie das neuronale Netzwerk, konnte jedoch die Leistung verbessern der Original-Software des Unternehmens erheblich und behält gleichzeitig die Interpretierbarkeit bei. Tatsächlich waren die Ingenieure bereit, etwas von der Genauigkeit des neuronalen Netzwerks zu tauschen, um vollständige Sichtbarkeit und Kontrolle über die Funktionsweise der Vorhersagesoftware zu erhalten.

KI zum Verständnis von AI

Fernandez, Mitbegründer von DarwinAI mit der University of Waterloo Professor Alex Wong erreichte die KI-Erklärbarkeit durch einen anderen Ansatz. Als Wissenschaftler hatte Wong, der über jahrelange Erfahrung im Bereich Computer Vision verfügte, an einer Technik namens Evolutionäre Synthese (hierher kommt der Name DarwinAI) gearbeitet. Evolutionäre Synthese soll neuronale Netzwerke effizienter machen, indem sie wie Organismen behandelt werden, die sich im Laufe der Zeit weiterentwickeln und ihre redundanten Komponenten ablegen, um effizienter zu werden.

Bei DarwinAI half Wong mit, die neue Generation von Generative Synthesis zu entwickeln Evolutionäre Synthese und geht noch einen Schritt weiter.

"Die Idee hinter Generative Synthesis ist, künstliche Intelligenz selbst zu nehmen und zu sehen, ob wir neuronale Netzwerke besser verstehen und entwickeln können", sagte Fernandez.

Generative Synthesis verwendet maschinelles Lernen zur Untersuchung und neuronale Netze grundlegend verstehen. Anschließend wird eine komplexe mathematische Darstellung des Modells entwickelt, mit der ein zweites neuronales Netzwerk erzeugt wird, das genauso genau wie das erste ist, aber auch kompakter und schneller ist. Durch die Verkleinerung neuronaler Netze sind sie in UAVs (unbemannten Luftfahrzeugen), fahrerlosen Autos und anderen Randumgebungen einsetzbar, die ressourcenbeschränkt sind oder Echtzeitzugriff auf die AI-Funktionalität benötigen.

Ein Nebeneffekt dieses Ansatzes ist jedoch ein gründliches Verständnis wie das neuronale Netz arbeitet. Durch die Überwachung und Dokumentation der gesamten Entwicklung eines neuronalen Netzwerks konnte der Generative Synthesis-Ansatz von DarwinAI die Faktoren und Datenpunkte aufzeigen, die jede der Entscheidungen beeinflussten, die seine neuronalen Netzwerke getroffen hatten.

"Wir hatten eine Art Umweg auf die Technologie zuzugreifen, aber es ist wirklich wichtig zu verstehen, wie diese neuronalen Netzwerke Entscheidungen treffen ", sagte Fernandez.

Über das Finden von Fehlern hinaus

" Es gibt Zusammenhänge, die nachweislich schlecht sind und die einfach nicht passieren sollten. Wir müssen es im System erkennen und ausrotten ", sagte Fernandez. Erklärbarkeitsmethoden können in Zukunft helfen, diese Fehler zu finden und zu beheben, bevor sie zu einer ungerechtfertigten Verhaftung oder einem zu Unrecht abgelehnten Darlehen führen.

Die Vorteile der Interpretation tiefer Lernmodelle reichen jedoch über die Fehlersuche und Behebung hinaus. In einigen Fällen können sie dazu beitragen, zuvor unbekannte Aspekte der Domänen, in denen sie bereitgestellt werden, zu beleuchten.

"Die Erklärbarkeit kann auch in eine andere Richtung wirken. Sie kann auch Einblick in Zusammenhänge geben, von denen Sie nicht wussten, dass sie existierten. "Sagte Fernandez. Bei seiner Arbeit zur Anwendung von Deep Learning im Bankensektor half Fernandez bei der Untersuchung interpretierbarer Netzwerke, neue Erkenntnisse über die Merkmale betrügerischer Transaktionen zu gewinnen.

Dank einer erklärbaren KI entdeckten sie beispielsweise, dass eine Person den Chrome-Browser verwendet Die Wahrscheinlichkeit, dass eine Transaktion betrügerisch ist, ist höher als bei Verwendung von Internet Explorer oder Safari. Und das ist so, weil Cyberkriminelle als Techniker viel eher Chrome als den vorinstallierten Browser ihres Betriebssystems verwenden.

In einem anderen Fall konnte ein Reisebüro feststellen, dass einige Leute an Hotels interessiert waren, die sich an Straßenecken befanden. Sie fügten dies später als Option für ihre Kunden hinzu.

"Diese Erkenntnisse zu erhalten, ist ebenso wichtig wie die Beseitigung von Vorurteilen, da diese Erkenntnisse für das Geschäft wertvoll sind", sagte Fernandez.

 Https% 3a% 2f% 2fblueprint api production .s3.amazonaws.com% 2fuploads% 2fvideo uploaders% 2fdistribution thumb% 2fimage% 2f87062% 2f8cc9e2da 0ae0 424d a7ab e9a189897144

Dieser Artikel wurde ursprünglich bei PCMag veröffentlicht
Hier

Source link