China Fokus: Chinas Universität will Vertrauen und Widerstandsfähigkeit in KI der nächsten Generation bringen

BEIJING, 14. Mai (Xinhuanet) -- Vom Sprachassistenten bis zur Gesichtserkennung; vom Besiegen von Meisterspielern in Go bis zum Zerschlagen von Profispielern im Strategiespiel StarCraft; die Welt hat spannende Fortschritte in der Entwicklung der künstlichen Intelligenz (KI) erlebt.

Da die KI auf Funktionen mit höherem Risiko angewendet wird - wie selbstfahrende Autos, automatisierte chirurgische Assistenten, Hedge-Fonds-Management und Stromnetzkontrollen - wie können wir sicherstellen, dass sie vertrauenswürdig ist?

Chinas renommierte Tsinghua-Universität hat angekündigt, die Grundlagenforschung zur KI der dritten Generation zu intensivieren, in der Hoffnung, Vertrauen aufzubauen und Missbrauch und bösartiges Verhalten von KI-Modellen zu verhindern.

Zhang Bo, Direktor des Tsinghua Institute for Artificial Intelligence und Akademiker an der Chinese Academy of Sciences, stellte den Plan bei der Eröffnung des Center for Fundamental Theories unter dem Institute for Artificial Intelligence am Montag vor.

Tsinghua-Forscher sprechen seit 2014 über die Zukunft der KI und erwarten, dass sie in den kommenden Jahren in die dritte Phase ihrer Entwicklung eintritt, sagte Zhang.

Die KI der ersten Generation wurde von dem Wissen angetrieben, das die Forscher selbst besaßen, und sie versuchten, dem KI-Modell klare logische Regeln zu geben. Diese Systeme waren in der Lage, klar definierte Probleme zu lösen, aber nicht lernfähig.

In der zweiten Generation begann die KI zu lernen. Maschinen lernen, indem sie ein System auf einem Datensatz trainieren und dann auf einem anderen Satz testen. Das System wird schließlich präziser und effizienter.

Zhang sagte, die Schwäche der zweiten Generation liegt in ihrer Erklärbarkeit und Robustheit.

KI-Robustheit bezieht sich auf eine akzeptabel hohe Performance auch in Worst-Case-Szenarien.

Obwohl die KI in bestimmten Bereichen wie der Bilderkennung bereits die Menschen übertroffen hat, versteht niemand, warum diese Systeme so gut abschneiden.

Das maschinelle Lernen und das Deep Learning, die häufigsten KI-Branchen der letzten Jahre, leiden unter der sogenannten "KI-Blackbox". Die Menschen finden es schwierig, die KI-basierten Entscheidungen zu interpretieren und können nicht vorhersagen, wann das KI-Modell scheitern wird und wie es scheitern wird.

In der Zwischenzeit können selbst genaue KI-Modelle anfällig für "gegnerische Angriffe" sein, bei denen subtile Unterschiede bei der Eingabe von Daten zur Manipulation der KI "Argumentation" eingeführt werden.

Ein KI-System könnte beispielsweise ein Faultier mit einem Rennwagen verwechseln, wenn einige unbemerkte Änderungen an einem Foto des Faultiers vorgenommen werden.

Forscher müssen daher die Robustheit von KI-Modellen verbessern und überprüfen, ohne Raum für gegensätzliche Beispiele oder gar Angriffe zur Manipulation der Ergebnisse zu lassen.

Wenn KI-Technologien in sicherheitssensiblen oder sicherheitskritischen Szenarien eingesetzt werden, muss die nächste Generation verständlich und robuster sein, sagt Zhang.

Zhu Jun, Direktor des neuen Zentrums, sagte, dass es interdisziplinäre Studien durchführen wird und erwartet, Talente aus der ganzen Welt anzuziehen, die ihnen ein entspanntes akademisches Umfeld bieten.

Er sagte, dass die Tsinghua-Universität plant, jedes Jahr ein hochrangiges und vollständig offenes KI-Treffen auszurichten.

"Wenn etwas die Innovation fördert, werden wir es versuchen", sagte Zhu.

"Es ist schwer, den Fortschritt der Forschung an grundlegenden Theorien vorherzusagen. Es könnte explosiv und bahnbrechend sein."

 (gemäß der Nachrichtenagentur Xinhua)

Xinhuanet Deutsch

China Fokus: Chinas Universität will Vertrauen und Widerstandsfähigkeit in KI der nächsten Generation bringen

GERMAN.XINHUA.COM 2019-05-15 17:30:45

BEIJING, 14. Mai (Xinhuanet) -- Vom Sprachassistenten bis zur Gesichtserkennung; vom Besiegen von Meisterspielern in Go bis zum Zerschlagen von Profispielern im Strategiespiel StarCraft; die Welt hat spannende Fortschritte in der Entwicklung der künstlichen Intelligenz (KI) erlebt.

Da die KI auf Funktionen mit höherem Risiko angewendet wird - wie selbstfahrende Autos, automatisierte chirurgische Assistenten, Hedge-Fonds-Management und Stromnetzkontrollen - wie können wir sicherstellen, dass sie vertrauenswürdig ist?

Chinas renommierte Tsinghua-Universität hat angekündigt, die Grundlagenforschung zur KI der dritten Generation zu intensivieren, in der Hoffnung, Vertrauen aufzubauen und Missbrauch und bösartiges Verhalten von KI-Modellen zu verhindern.

Zhang Bo, Direktor des Tsinghua Institute for Artificial Intelligence und Akademiker an der Chinese Academy of Sciences, stellte den Plan bei der Eröffnung des Center for Fundamental Theories unter dem Institute for Artificial Intelligence am Montag vor.

Tsinghua-Forscher sprechen seit 2014 über die Zukunft der KI und erwarten, dass sie in den kommenden Jahren in die dritte Phase ihrer Entwicklung eintritt, sagte Zhang.

Die KI der ersten Generation wurde von dem Wissen angetrieben, das die Forscher selbst besaßen, und sie versuchten, dem KI-Modell klare logische Regeln zu geben. Diese Systeme waren in der Lage, klar definierte Probleme zu lösen, aber nicht lernfähig.

In der zweiten Generation begann die KI zu lernen. Maschinen lernen, indem sie ein System auf einem Datensatz trainieren und dann auf einem anderen Satz testen. Das System wird schließlich präziser und effizienter.

Zhang sagte, die Schwäche der zweiten Generation liegt in ihrer Erklärbarkeit und Robustheit.

KI-Robustheit bezieht sich auf eine akzeptabel hohe Performance auch in Worst-Case-Szenarien.

Obwohl die KI in bestimmten Bereichen wie der Bilderkennung bereits die Menschen übertroffen hat, versteht niemand, warum diese Systeme so gut abschneiden.

Das maschinelle Lernen und das Deep Learning, die häufigsten KI-Branchen der letzten Jahre, leiden unter der sogenannten "KI-Blackbox". Die Menschen finden es schwierig, die KI-basierten Entscheidungen zu interpretieren und können nicht vorhersagen, wann das KI-Modell scheitern wird und wie es scheitern wird.

In der Zwischenzeit können selbst genaue KI-Modelle anfällig für "gegnerische Angriffe" sein, bei denen subtile Unterschiede bei der Eingabe von Daten zur Manipulation der KI "Argumentation" eingeführt werden.

Ein KI-System könnte beispielsweise ein Faultier mit einem Rennwagen verwechseln, wenn einige unbemerkte Änderungen an einem Foto des Faultiers vorgenommen werden.

Forscher müssen daher die Robustheit von KI-Modellen verbessern und überprüfen, ohne Raum für gegensätzliche Beispiele oder gar Angriffe zur Manipulation der Ergebnisse zu lassen.

Wenn KI-Technologien in sicherheitssensiblen oder sicherheitskritischen Szenarien eingesetzt werden, muss die nächste Generation verständlich und robuster sein, sagt Zhang.

Zhu Jun, Direktor des neuen Zentrums, sagte, dass es interdisziplinäre Studien durchführen wird und erwartet, Talente aus der ganzen Welt anzuziehen, die ihnen ein entspanntes akademisches Umfeld bieten.

Er sagte, dass die Tsinghua-Universität plant, jedes Jahr ein hochrangiges und vollständig offenes KI-Treffen auszurichten.

"Wenn etwas die Innovation fördert, werden wir es versuchen", sagte Zhu.

"Es ist schwer, den Fortschritt der Forschung an grundlegenden Theorien vorherzusagen. Es könnte explosiv und bahnbrechend sein."

 (gemäß der Nachrichtenagentur Xinhua)

010020071360000000000000011100001380608581