Identity.TM ist jetzt IDnow.Mehr erfahren

Mit ChatGPT und anderen KI-Formen leben und arbeiten lernen und dabei sicher bleiben

So wird sich künstliche Intelligenz auf Online-Kriminalität auswirken und warum wir jetzt handeln müssen. 

Wenn wir etwas aus der Geschichte lernen können, dann die Tatsache, dass mit jeder Innovation und Entwicklung, ob technologisch oder anderweitig, neue kriminelle Handlungen aus dem Boden sprießen, um die entstandenen Regulierungslücken und rechtlichen Schlupflöcher auszunutzen.  

ChatGPT scheint aus dem nichts Ende 2022 aufgetaucht zu sein und wurde mit maßloser Begeisterung, zaghaftem Bangen und in Italien zuletzt sogar mit einem völligen Verbot begrüßt.   

Seit dem Start von ChatGPT 4.0 findet man vor allem auf LinkedIn unzählige Möglichkeiten, wie künstliche Intelligenz eingesetzt werden könnte, um die Abläufe zu verbessern und die Kreativität zu steigern, indem man Routinearbeiten an die KI auslagert. Echten Menschen bleiben dann die wirklich wichtigen Dinge: Strategien erstellen, Budgets planen und Kaffee kochen (obwohl es auch dafür Tools gibt).   

Auf anderen sozialen Netzwerken, die weniger Business-orientiert sind, waren die Vorhersagen weniger optimistisch und ähnelten mehr dem Ende aller Zeiten. Viele argumentierten, dass wir uns bei der Erstellung von Inhalten nicht zu sehr auf KI verlassen und das Steuer zu lange aus der Hand geben dürfen, da es sonst unheimlich schwer werden wird, unsere eigene Macht zurückzuerobern. Einige stellten sogar infrage, ob wir dazu überhaupt in der Lage wären, sobald wir die kreative Kontrolle über eine Generation abgegeben haben. 

Nächster Schritt der künstlichen Intelligenz? 

Trotz emotionaler Reaktionen der Öffentlichkeit sind große Konzerne wie Apple, Microsoft, Google und HubSpot auf den „KI-Zug“ aufgesprungen oder planen zumindest einen baldigen Einstieg. Viele von ihnen haben angekündigt, in naher Zukunft KI-Technologie in ihre Produkte integrieren zu wollen, oder haben es bereits getan. 

Einigen Tech-Titanen und Akademikern zufolge könnte jedoch die Menschheit selbst in Gefahr sein, wenn sich die künstliche Intelligenz ohne angemessene Grenzen zu schnell weiterentwickelt. Viele Experten, darunter Elon Musk und Steve Wozniak, fordern eine sechsmonatige Auszeit vom KI-Wettrüsten und haben einen offenen Brief unterzeichnet.  

KI-Labore [befinden sich] in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren können – nicht einmal ihre Erfinder. 

Pause Giant AI Experiments: An Open Letter

Im Brief argumentieren sie, dass alle Beteiligten die Entwicklung von noch leistungsfähigeren KI-Systemen aussetzen und sich stattdessen darauf konzentrieren sollten, die Systeme genauer, sicherer und vertrauenswürdiger zu machen. Gleichzeitig müssten sie sicherstellen, dass problematische Formen von Voreingenommenheit ausgerottet werden. Damit hätten auch politische Entscheidungsträger und Regulierungsbehörden Zeit, ihre Regulierung hinsichtlich künstlicher Intelligenz zu verbessern. 

Was ist das KI-Gesetz? 

Die Europäische Kommission ist die erste große Regierungsbehörde, die formell versucht, KI zu regulieren. In einem Vorschlag über ein KI-Gesetz warnt die Kommission vor der Notwendigkeit, den Einsatz von künstlicher Intelligenz im Bereich des sozialen Scoutings, der Manipulation und einiger Anwendungen der Gesichtserkennung zu überwachen und zu begrenzen. Diese Bereiche gelten als „risikoreiche“ KI.  

Außerdem werden große Sprachmodelle wie ChatGPT (General Purpose AI, GPAI) erwähnt, die in einer Vielzahl von Anwendungen zum Einsatz kommen. Die EU hat daher eine Gesetzesänderung vorgeschlagen, die vorsieht, dass GPAI-Anbieter die gleichen Standards und Beschränkungen einhalten müssen wie Hochrisiko-KI.   

Im März 2023 wurde obendrein die Europol-Studie „ChatGPT: The impact of Large Language Models on Law Enforcement“ (Die Auswirkungen von großen Sprachmodellen auf die Strafverfolgung) veröffentlicht. Darin wird detailliert beschrieben, wie KI-Systeme derzeit schon von Kriminellen genutzt werden, und welchen zukünftigen Missbrauch es geben könnte.  

Aber was genau haben die Regulierungsbehörden zu befürchten? 

Korrupte Innovation. 

Während die Begeisterung übersehbar ist, dass ChatGPT die Produktivität steigern und die Abläufe verbessern kann, bleibt es nur eine Frage der Zeit, bis Kriminelle die Technologie für illegale Aktivitäten wie Betrug, Impersonation und Social Engineering einsetzen.  

Tatsächlich setzen Betrüger bereits auf leistungsstarke Technologie für Romantikbetrug und Phishing, um gefälschte Dokumente (Rechnungen, Kontoauszüge, Verträge und andere Unterlagen) zu erstellen, die oft personalisierter und exakter sind als von Menschen kreierte Dokumente. Bislang konnte man Fälschungen am ehesten an den vielen grammatikalischen und andere semantischen Fehler erkennen. GPAI-Modelle können auch verwendet werden, um realistische Sprachmuster zu erstellen und die individuellen Eigenheiten einer Person nachzubilden.  

Nach Angaben von Europol besteht ein weiteres großes Risiko von ChatGPT und anderen KI-Systemen darin, dass Kriminelle mit geringem technischem Know-how in Cyberkriminalität einsteigen können. KI ist nicht nur in der Lage, menschenähnliche Sprache zu formulieren, sondern kann auch schnell Code in verschiedenen Programmiersprachen erstellen (oder korrigieren). Dadurch können Betrüger mit relativ geringem Aufwand Malware, bösartige VBA-Skripte und realistische KI-Chatbots erstellen, worüber neue Opfer gefunden werden können.   

In den letzten zehn Jahren hat KI-gestützte Software erhebliche Fortschritte gemacht, die Technologie enorm verbessert und zunehmend robuste Lösungen für viele Aspekte unseres täglichen Lebens geboten. Diese Fortschritte haben jedoch auch Möglichkeiten für böswillige Nutzung geschaffen. 

Montaser Awal, Director of Research and Development at IDnow. 

Angesichts der rasanten Verbesserungen bei der generativen KI (einer Art künstlicher Intelligenz, die eine Vielzahl von Medien wie Bilder, Videos, Audio, Texte und 3D-Modelle erstellen kann) ist es nicht unvorstellbar, dass wir nur noch wenige Monate davon entfernt sind, dass Betrüger künstliche Intelligenz nutzen, um binnen Sekunden realistisch wirkende Pässe und offizielle Dokumente in jeder Sprache, mit korrekten Briefköpfen und Sicherheitsmerkmalen wie Hologrammen in großem Maßstab zu erstellen.  

Wie kann man dann die Echtheit prüfen? Welche Dokumente oder Personen aufgrund von Deepfake-Technologie tatsächlich authentisch sind, dürfte für Unternehmen ohne die strengsten Lebendigkeitschecks und Technologien zur Gesichtserkennung problematisch werden.  

ChatGPT wirft auch eindeutige Bedenken in Bezug auf Datenschutz und Privatsphäre auf. Im März 2023 wurde dies deutlich, als die italienische Datenschutzbehörde die Plattform vorläufig sperrte, bis sie einen Fehler behoben hatte, bei dem der Chatverlauf anderer Nutzer und personenbezogene Daten sichtbar waren.  

Einige große Banken, darunter Goldman Sachs und die Deutsche Bank, haben ebenfalls Schritte unternommen, um die Nutzung von ChatGPT und ähnlichen Plattformen durch ihre Mitarbeiter einzuschränken, bis Möglichkeiten zur Gewährleistung einer „sicheren und effektiven Nutzung“ untersucht wurden.  

Die Kontrolle darüber, wer Zugang zu Informationen hat und ob diese Informationen einerseits korrekt und zudem unvoreingenommen sind, hat oberste Priorität. Dies war schon immer ein Problem im Internet, doch die Gefahr von unbelegten Fake-News wird mit der zunehmenden Masse an Inhalten wahrscheinlich exponentiell wachsen. Ein Beispiel:  

Laut einer kürzlich durchgeführten ChatGPT-Anfrage wurde Friedensnobelpreisträgerin Aung San Suu Kyi von der Europäischen Union mit Sanktionen belegt. Das stimmte so nicht, was die Lücken der Technologie verdeutlicht. 

Unternehmen sollten sich daher bei der Überprüfung von Sanktionen und politisch exponierten Personen (PEP) nicht ausschließlich auf ChatGPT verlassen. 

Wissen ist Macht: Feuer mit Feuer bekämpfen. 

Es bestehen eindeutige Gefahren, sobald ChatGPT in die falschen Hände gerät. In den richtigen Händen kann künstliche Intelligenz jedoch auch zu vielem Guten eingesetzt werden, beispielsweise um digitalen Betrug und Arten von finanzieller Kriminalität zu bekämpfen.   

Immer mehr Unternehmen, darunter auch IDnow, setzen künstliche Intelligenz ein, um ihre KYC-Prozesse (Know Your Customer) zu digitalisieren und Betrug zu verhindern. Unabhängig davon, in welcher Branche Ihr Unternehmen tätig ist – sei es bei Mobilität, Finanzdienstleistungen, Glücksspiel oder Kryptowährungen – sobald Sie die Identität Ihrer Kunden überprüfen müssen, bietet die Implementierung eines KI-gestützten Identitätsnachweisdienstes großartige Vorteile:  

  • KYC: Der wichtigste Schritt für Unternehmen, die ihr Geschäft vor finanziellem und rufschädigendem Betrug schützen möchten, ist der KYC-Prozess. KI kann dabei helfen, einen Großteil der Identitätsprüfung zu automatisieren, einschließlich der Verarbeitung von Kundendaten, persönlicher Informationen und der Transaktionshistorie.   
  • Onboarding: KI kann riesige Mengen an Informationen verarbeiten und die Identität von Kunden schnell, effektiv und sicher überprüfen. Durch die Automatisierung von Aufgaben können Engpässe beim Kunden-Onboarding beseitigt werden, so dass Unternehmen mit einer noch nie dagewesenen Geschwindigkeit skalieren können. 
  • PEP-Abgleich: Abgleich von Kundendaten mit Sanktions- und PEP-Listen (über eine spezielle Sanktions- oder PEP-Plattform). 
  • Betrugserkennung: Mithilfe der Verarbeitung natürlicher Sprache und maschineller Lernalgorithmen kann KI potenziellen Betrug in Echtzeit erkennen. KI kann zum Beispiel verdächtiges Nutzerverhalten erkennen und das Sicherheitsteam eines Unternehmens alarmieren, etwa wenn jemand mit derselben Identität verschiedene Konten auf Glücksspielplattformen nutzt, um gleichzeitig Wetten zu platzieren. 
  • International: Multinationale Unternehmen können ihren internationalen Kundenstamm bedienen, in der Gewissheit, dass sie die komplexen und unterschiedlichen rechtlichen Anforderungen erfüllen. 
  • Datenanalyse: Durch die Kombination von KI mit Technologien zur Betrugsbekämpfung können Unternehmen große Datenmengen analysieren, einschließlich Transaktionen, Orte und Zeiten, um verdächtige Muster und Aktivitäten zu erkennen.  

Diese Möglichkeiten zeigen bereits, dass die kommenden Jahre für die Entwicklung, den Einsatz und die Regulierung von künstlicher Intelligenz entscheidend sein werden. 

In Bezug auf KYC liegt die Hauptgefahr bei Identitätsdiebstahl und Verschleierung. Insbesondere generative Modelle haben es ermöglicht, relativ benutzerfreundliche Werkzeuge zu entwickeln, um immer realistischere Identitätsdokumente und biometrische Merkmale zu generieren. Dieselbe Technologie ist ein wichtiger Vorteil, den wir bei der wirksamen Bekämpfung verschiedener Arten von Betrug sehen. 

Montaser Awal, Director of Research and Development at IDnow.

Dystopie statt Utopie? 

Die Bedrohung durch die künstliche Intelligenz wird wahrscheinlich weniger wie in Filmen wie Terminator und mehr wie bei Wall-E sein. Vermutlich müssen wir uns weniger um den Verlust physischer Dinge als um den Verlust unserer Kreativität, Autonomie und unseren Arbeitswillen sorgen. 

Es ist klar, dass wir mit ChatGPT einen Geist beschworen haben, den wir nicht mehr loswerden können, selbst wenn wir es wollten. Wir müssen lernen, mit ihm zu leben und von ihm zu lernen, so wie die Technologie von uns lernt. Nur dann werden wir ihr [und unser] wahres Potenzial erkennen. 

Von

Mit ChatGPT und anderen KI-Formen leben und arbeiten lernen und dabei sicher bleiben 1

Jody Houton
Content Manager at IDnow
Jetzt mit Jody auf LinkedIn vernetzen

Play