Datenschutz PRAXIS - Der Podcast

Datenschutz PRAXIS - Der Podcast

Transkript

Zurück zur Episode

00:00:00: Herzlich Willkommen zu einer neuen Folge von Datenschutz Praxis, der Podcast. Heute sprechen

00:00:07: wir mit Dr. DSGVO Klaus Meffert über die spannenden Themen Tracking und Künstliche Intelligenz.

00:00:14: Mein Name ist Severin Putz und normalerweise begrüße ich Sie an dieser Stelle zusammen mit

00:00:26: Oliver Schonschek. Für diese Aufnahme haben wir im ereignisreichen Juli 2023 aber leider keinen

00:00:33: gemeinsamen Aufnahmetermin gefunden. Deshalb die besten Grüße von Oliver. Ich spreche allein mit

00:00:40: unserem spannenden Gesprächspartner Dr. Klaus Meffert. Der ist promovierter Informatiker,

00:00:46: Sachverständiger für IT und Datenschutz und berät zu diesen Themen. Kunden bietet er

00:00:54: Webseitenchecks an sowie datenschutzfreundliche Lösungen für Künstliche Intelligenz. Und davon

00:01:01: handelt auch sein Blog und sein eigener Podcast. Und genau darum soll es nun auch in diesem

00:01:06: Gespräch gehen. Werbung. Wenn Sie regelmäßige Informationen rund um datenschutzgerechtes

00:01:14: Marketing und verantwortungsbewussten Einsatz von Künstlicher Intelligenz haben möchten,

00:01:20: empfehle ich Ihnen ein Abonnement unserer Zeitschrift Datenschutz PRAXIS. Experten

00:01:26: wie Dr. DSGVO Klaus Meffert und viele weitere fähige Datenschutz-Koryphäen teilen darin

00:01:34: regelmäßig ihr Fachwissen, ihre Erfahrungen und Best Practices mit Ihnen. Sie erhalten Zugriff

00:01:41: auf viele Checklisten und Ratgeberbeiträge, die zu allen erdenklichen Themen des Datenschutzes

00:01:47: wertvolle Hilfestellung geben. Ihr Abonnement, wahlweise als Print plus Online oder reines

00:01:54: Online-Abo, können Sie ganz einfach bestellen unter www.weka.de/9100. Lieber Dr. DSGVO, ich freue

00:02:13: mich, dass wir dieses Gespräch hier führen können. Und wie gesagt, wir werden das in unserem Podcast

00:02:19: im Datenschutz PRAXIS Podcast veröffentlichen, dieses Gespräch. Und ja, wir haben schon länger

00:02:25: darüber nachgedacht gehabt, das mal zu machen und uns zu unterhalten. Und jetzt freut es mich,

00:02:30: dass es klappt. Ja, herzlich willkommen. Ja, vielen Dank. Freut mich auch. Danke für die

00:02:35: Gelegenheit. Und ich bin gespannt auf das, was wir besprechen. Ist ja ein tolles Thema und toll,

00:02:41: dass wir es heute machen. Ja, die Bandbreite, die Sie da mitbringen. Sie beschäftigen sich ja

00:02:47: schon lange mit den, ja, wie Sie es auch ein bisschen nennen, Bullshit Basics, dieses Ankämpfen

00:02:55: gegen datenhungrige Marketing-Tools und ja, Marketeers oder Anwender, die auch nach vielen

00:03:04: Informationen aus dem Datenschutzbereich nicht müde werden, die weiter zu verwenden. Ja, Bullshit

00:03:14: Basics. Die Frage, kann man denn ohne Google-Produkte Webseiten betreiben und damit dann

00:03:22: auch die Wirkung der Webseite vernünftig messen? Sie haben dazu Antworten. Sie haben dazu Überlegungen.

00:03:29: Richtig, die habe ich. Also, ich konzentriere mich jetzt mal auf den Fall, der für die meiner

00:03:35: Meinung nach allermeisten Webseiten prozentual gesehen in Deutschland der relevante Fall ist.

00:03:39: Und da sage ich, diese Webseiten brauchen kein Google Analytics. Die brauchen auch keine anderen

00:03:45: Maßnahmen wie Conversion Tracking. Ich sage gleich noch, was das ist. Also, die meisten interessiert

00:03:50: ja, wie viele Besucher hat meine Webseite? An welchem Tag vielleicht waren viele Besucher da?

00:03:55: Was ist der beste Tag? Die beste Uhrzeit vielleicht auch für Newsletterveröffentlichung oder sowas?

00:04:00: Was sind die besten Beiträge? Wo muss ich vielleicht noch nacharbeiten? Wie viele Besucher hatte ich

00:04:05: innerhalb von einem Monat oder einem Jahr? Und das alles kann ich sehr datenschutzfreundlich machen,

00:04:13: ohne Google Analytics mit Matomo zum Beispiel. Es hieß früher Piwik. Das kann man lokal installieren.

00:04:17: Das Open Source kann man so konfigurieren, dass man keine Einwilligung braucht. Das Spannende ist,

00:04:23: wenn Sie Google Analytics nutzen, brauchen Sie immer eine Einwilligung, egal wie Sie es machen.

00:04:27: Ansonsten ist es ein Problem, und zwar ein rechtliches Problem. Und wir wissen beide,

00:04:31: dass nicht 50 Prozent oder mehr der Nutzer die Einwilligung normalerweise geben wollen. Wenn

00:04:36: man es richtig abfragt, sind es tendenziell eher weniger. Ich würde eher von 30 Prozent sprechen.

00:04:40: Wenn man 50 Prozent hätte, wäre das schon sehr viel. Das heißt, 50 Prozent oder 70 Prozent

00:04:45: der Daten gehen Ihnen verloren. Wohingegen, wenn Sie ohne Einwilligung Daten analysieren können,

00:04:50: dann haben Sie 100 Prozent aller Nutzer erfasst. Und das ist doch schon mal ein Riesenunterschied.

00:04:54: Wenn Sie jetzt über Conversion Tracking nachdenken, also welche Werbemaßnahmen zum Beispiel oder

00:04:59: welche Quelle hat der Nutzer gehabt, um auf meine Webseite zu kommen, und hat dann eine gewünschte

00:05:05: Aktion ausgeführt, im Onlineshop zum Beispiel einen Kauf oder bei einer normalen Webseite wie

00:05:09: meiner jetzt einen Blog, ein Newsletter-Abonnement oder so was oder Kontaktformular benutzt. Das

00:05:14: kann man als Conversion oder Konvertierung bezeichnen. Dann kann ich das auch ohne Cookies

00:05:19: machen. Das mache ich gerade auf meinem Blog sogar. Und dafür brauchen Sie auch keine Einwilligung.

00:05:23: Sie müssen halt nur aufpassen, dass Sie den Nutzer nicht zu sehr in den Fokus der Daten stellen,

00:05:27: sozusagen. Sie wollen ja eigentlich gar nicht wissen, ist es die Frau Meier oder der Herr Müller,

00:05:32: sondern Sie wollen einfach nur wissen, ist das Nutzer 1 oder Nutzer 2. Und am besten auch ohne

00:05:37: Cookies, weil diese sind ja nicht erforderlich für diese Analyse, wie ich ja zeige, technisch,

00:05:42: ist also bewiesen. Und wenn es nicht erforderlich ist, brauchen Sie aber laut Paragraf 25 TTDSG

00:05:47: eine Einwilligung. Also man kann ohne Fremdprodukte, ohne Google-Produkte sehr gut die Nutzer auf der

00:05:54: eigenen Webseite analysieren. Und zwar mehr, behaupte ich, als die meisten Webseitenbetreiber

00:05:59: an Daten überhaupt brauchen. Sie thematisieren das ja auch, dass das auch ein Problem ist. Viele

00:06:08: machen es einfach und fragen dann dafür keine Einwilligung ab für Google Analytics.

00:06:17: Da sind Sie auch zum Teil ein bisschen unzufrieden mit der Durchsetzung,

00:06:20: wenn ich das richtig interpretiert habe. Ja, also das kann man so sagen. Vor fünf Jahren,

00:06:27: mehr als fünf Jahren ist die DSGVO in Kraft getreten in Europa und somit auch in Deutschland.

00:06:31: Es gibt Aufsichtsbehörden in Deutschland, die haben eigentlich den Auftrag, so sehe ich ihn,

00:06:35: nicht nur zu beraten. Dafür brauche ich die jetzt nicht unbedingt. Da könnte ich auch eine

00:06:39: Beratungsstelle einrichten, die viel weniger Mitarbeiter hat. Da brauche ich ja nur eine

00:06:42: in Deutschland und nicht in jedem Bundesland eine. Und auch nicht nur für den Bund extra

00:06:46: ein und für den Rundfunk nochmal einen, sondern die sollen auch sanktionieren. Sanktionieren

00:06:51: heißt Bußgelder verhängen. Man soll ja natürlich nicht für jeden und alles ein Bußgeld verhängen.

00:06:56: Aber wenn es innerhalb von über fünf Jahren kein einziges Bußgeld wegen Webtracking gibt

00:07:01: in Deutschland, dann ist das schon ein Zeichen des, ich möchte es mal etwas bösartig formulieren,

00:07:07: Arbeitsunwillens der deutschen Aufsichtsbehörden. Es gibt vielleicht noch andere Gründe,

00:07:11: Personalmangel, aber ganz ehrlich, es kann ja wohl nicht sein, dass man es nicht schafft,

00:07:15: innerhalb von fünf Jahren ein einziges Bußgeld zum Beispiel gegen Google Analytics zu vollstrecken

00:07:21: oder zumindest auszusprechen, muss man ja sagen. Die Vollstreckung ist wieder was anderes. Ich

00:07:25: gebe mal ein Beispiel, wie leicht man das beweisen kann, dass Google Analytics verwendet wird. Sie

00:07:28: öffnen den Browser, drücken die Taste F12 im Firefox zum Beispiel, da geht die Entwicklerkonsole

00:07:33: auf. Dann öffnen Sie die Webseite, um die es geht. Dann sehen Sie in der Entwicklerkonsole den

00:07:38: Netzwerkverkehr, der stattfindet. Da sehen Sie einen Aufruf von google-analytics.com. Da sehen

00:07:43: Sie auch noch, dass da Cookies meistens verwendet werden, wobei das ja auch gar keine Rolle spielen

00:07:47: würde. Und dann haben Sie den Beweis erbracht, dass das ohne Einwilligung stattfindet. Sie haben

00:07:51: nämlich keine Einwilligung gegeben. So, das können Sie hunderttausendfach am Tag beweisen. Also der

00:07:57: Beweis ist überhaupt gar nicht das Problem. Also es ist einfach der Wille, der fehlt. Und ich weiß

00:08:01: aus Hessen, das muss ich jetzt mal so sagen, ich komme ja hierher aus Hessen leider, muss man in

00:08:05: dem Fall sagen, die hessische Aufsichtsbehörde hat keine Lust, Bußgelder zu verhängen. Also ich

00:08:10: sage nicht, dass das alle in der hessischen Aufsichtsbehörde so sehen, aber ein Referatsleiter

00:08:15: und die Referatsleiter sind ja die maßgeblichen Mitarbeiter dort, sagt mir das in einem

00:08:19: persönlichen Gespräch. Und der behauptet auch, dass Google Analytics ja gar nicht so viele Daten

00:08:24: verarbeiten würde. Also man muss sich jetzt mal entscheiden. Entweder ist Google Analytics aus

00:08:29: marketing Sicht ganz toll und aus Datenschutzsicht sehr schlecht oder aus Datenschutzsicht sehr gut

00:08:35: und aus Marketingsicht sehr schlecht. Aber dann, wenn es aus Marketingsicht sehr schlecht wäre,

00:08:38: frage ich mich, warum es dann so viele benutzen. Ich meine, man kann es ja auch zeigen, dass Google

00:08:42: Analytics sehr viele Daten erhebt. Zum Beispiel prognostiziert Google Analytics das Geschlecht

00:08:47: und das Einkommen der Nutzer und in Amerika sogar, welche Partei der Nutzer wählen würde. Das könnte

00:08:53: man in Deutschland auch machen, es hat Google noch nicht aktiviert. Google selbst weiß es

00:08:56: wahrscheinlich und verrät es noch nicht. Also unendlich viele Daten werden da gesammelt und

00:09:00: ich sage es nochmal, die Behörden sollten endlich mal anfangen, richtig zu arbeiten.

00:09:04: Vor allem auch mit dem Blick auf das Thema, was sich jetzt mehr und mehr seit schon geraumer Zeit,

00:09:12: aber jetzt in diesem Jahr noch ganz intensiv in den Blick drängt, diese künstlichen

00:09:18: Intelligenzanwendungen, die mehr und mehr reindrängen. ChatGPT ist ja nur ein Beispiel,

00:09:23: aber es gibt ja zahlreiche Initiativen von anderen Marktteilnehmern, die jetzt ebenfalls

00:09:30: aktiv werden und Google und Suchanbieter fangen da eh schon länger an, das mehr und mehr Einzug

00:09:39: bringen in ihre Leistungen. Das hatte ich mir eben auch schon im Vorfeld ein bisschen überlegt,

00:09:47: wie sehen Sie auf diesen Übergang? Ist das nochmal eine neue Kategorie? Ist das nochmal

00:09:56: ein neues Risiko, was da auf die Betroffenen auch ein Stück weit zukommt? Oder haben wir

00:10:04: einfach auch bis dato nicht so recht gewusst, was Google eh schon tut?

00:10:08: Ja, also viele wollten es nicht wissen, was Google tut. Wenn man es liest, was Google sagt,

00:10:14: dann weiß man, was Google tut. Es wird natürlich immer so, wir könnten und beispielsweise wird

00:10:18: dann gesagt, machen wir dies und das, aber nicht alles, sondern es wird nur beispielsweise gesagt.

00:10:22: Google hat jetzt, habe ich gelesen, auch erklärt in den Datenschutzhinweisen,

00:10:27: dass sie quasi sämtliche Daten, die sie erhalten für künstliche Intelligenzanwendungen verwenden,

00:10:32: also zur Optimierung von KI-Modellen. Ein KI-Modell ist sowas wie ein elektronisches

00:10:36: Gehirn. Vielleicht zu dem Unterschied Suchmaschine, das hatten Sie, glaube ich,

00:10:40: zum Sinn und KI-Anwendung wie ChatGPT. Was ist da der Unterschied aus Datenschutzsicht?

00:10:46: Also zunächst mal werden dieselben Daten, könnte man sagen, verarbeitet als Eingabedaten. Bei der

00:10:53: Suchmaschine wird das gesamte Internet abgegrast und danach können wir dann suchen. Dasselbe macht

00:10:58: ein KI-Modell, also wie ein ChatGPT. Das heißt, es wird auch das gesamte Internet abgegrast. Da

00:11:03: gibt es überhaupt gar keinen Unterschied. So, jetzt kommt noch was anderes dazu. Die KI speichert

00:11:10: unter Umständen, das kann man machen, muss man aber nicht, die Daten nicht ab, die Originaldaten,

00:11:15: sondern das ist wie, wenn Sie sich jetzt einen Text durchlesen als Mensch und ein Bild anschauen,

00:11:19: dann speichern Sie sich ja nicht hart sozusagen diesen Text oder dieses Bild im Gehirn ab. Mit

00:11:24: dem Bild, das wird auch schwierig, weil dann bräuchten Sie fotografisches Gedächtnis. Haben

00:11:27: ja manche Menschen, ich habe es nicht. Das heißt, Sie haben irgendeine Neuronenstruktur in Ihrem

00:11:32: Gehirn, die dieses Bild, was Sie sich angeschaut haben, abbildet. Und genauso ist im KI-Modell.

00:11:36: Sie brauchen dieses Bild dann nicht mehr, was Sie sich mal angeguckt haben. Sie wissen dann

00:11:40: wieder später, wenn Sie die Mona Lisa noch mal sehen, ja, das habe ich schon mal gesehen. Auch

00:11:43: wenn Sie es sich nicht in Ihrem Gehirn als 1 zu 1 Abbild abgespeichert haben. Also KI-Modelle speichern

00:11:49: Eingabedaten nicht im Original ab, sondern können die dann wegschmeißen. Das heißt,

00:11:53: urheberrechtlich wäre das auch unproblematisch. So sagt man Paragraf 44 des Urhebergesetzes zum

00:11:58: Beispiel. Auch wenn es da gerade einen Streit gibt, der aber noch am Anfang ist. Da hat nämlich

00:12:03: ein deutscher Fotograf geklagt, aber das können wir vielleicht später noch besprechen. Jetzt die

00:12:07: Suchmaschine muss diese Daten speichern, da sie ja auch ein Ergebnis ausgibt, wie man weiß. Was

00:12:12: kommt noch dazu? Wenn Sie eine Eingabe machen in die Suchmaschine, dann ist die meistens aus

00:12:17: Schlagworten bestehen bisher zumindest oder eine ganz einfache Frage. Was ist oder wie hoch ist

00:12:22: der Mount Everest als Beispiel? Bei einer künstlichen Intelligenzanwendung gibt man ja

00:12:27: typischerweise ausgeklügeltere Fragen rein. So, die können auch abgespeichert werden. Das hat

00:12:32: ChatGPT auch gemacht, ohne es zu sagen und ohne die Abwahlmöglichkeit zu lassen. Deswegen wurde

00:12:37: es ja in Italien verboten, aber nur deswegen aus meiner Sicht. Beziehungsweise kam noch dazu,

00:12:41: dass ein Leak, also ein Vorfall rausgekommen ist, der gar nicht öffentlich werden sollte. Da kam

00:12:48: nämlich raus, dass bestimmte andere Daten auch noch eingeflossen sind in ChatGPT, die gar

00:12:52: nicht hätten einfließen sollen. Das ist passiert bei Google wahrscheinlich auch. Es kriegt halt

00:12:55: auch nur keiner mit, könnte man denken. Und die Antwort einer KI ist natürlich auch gefährlicher

00:13:01: insofern, weil sie besser ist als von einer Suchmaschine. Eine Suchmaschine zeigt ja nur

00:13:05: das Wissen, was reingesteckt wird, auch wieder an, wenn sie es finden wollen. Bei einer KI

00:13:10: entsteht neues Wissen und auch manchmal Falschinformationen oder sehr oft sogar. Und

00:13:14: manchmal, ich glaube, da gab es ein Experiment von einer KI-Forschungsabteilung, die haben dann

00:13:19: aus Versehen sozusagen, hat ihr KI-System einen Kampfstoff entwickelt. Das haben sie dann schnell

00:13:23: wieder gelöscht. Also man kann damit sehr tolle Sachen machen, aber auch sehr böse und die Risiken

00:13:28: bei einer KI sind höher. Aber grundsätzlich bei der ursprünglichen Datenverarbeitung ist

00:13:32: dasselbe, meiner Meinung nach, wie bei einer Suchmaschine. Da wundere ich mich halt schon,

00:13:36: warum manche Datenschutzbehörden bei OpenAI als Betreiber von ChatGPT nachfragen, wie das denn

00:13:42: so wäre mit den Daten. Bei Google und anderen Suchmaschinen aber, also zumindest habe ich es

00:13:46: nicht mitgekriegt, nicht so. Das hätte man genauso machen müssen. Da ist vielleicht jetzt die

00:13:52: Aufmerksamkeit eine andere und auch die, gerade mit dem Hinblick auf KI und Risiken, KI und

00:14:00: wirkliche Ausschlüsse und Szenarien, die da von manchen eben proklamiert werden, ja, ist einfach

00:14:09: vielleicht die Aufmerksamkeit noch mal eine andere. Ja, wenn ich da ganz kurz einhaken darf. Also wir

00:14:14: reden über Datenschutz in erster Linie, bei den Aufsichtsbehörden für Datenschutz. Die Ausgaben,

00:14:19: also den Output, den eine KI macht, der ist ja nicht datenschutzrechtlich wirklich relevant,

00:14:24: also normalerweise. Außer wenn sie jetzt als ChatGPT-Nutzer irgendwas reingeben in den

00:14:30: Prompt und die KI würde sich das speichern und mir als dritten Nutzer, der sie gar nicht kennen

00:14:36: würde, ausgeben. Das wäre natürlich ein Problem, aber das passiert ja nicht. Also es ist jedenfalls

00:14:40: noch nie passiert. Es kann sein, dass es passiert, aber es ist bis jetzt noch kein Problem. Wenn eine

00:14:44: KI Antworten gibt, die urheberrechtlich problematisch sind oder geschäftsgeheimnis-

00:14:48: technisch oder falsche Antworten, dann ist das kein Datenschutzthema. Also darum kann es der

00:14:53: Datenschutzbehörde nicht gehen. Aber da sind wir bei Risiken, die irgendwo Unternehmen natürlich

00:15:02: auch im Blick behalten müssen. Wir beide wissen, es landauf, landab, jeder Marketier, jeder

00:15:11: Produktmanager, alle verwenden jetzt auch schon KI-Anwendungen, um diesen Effizienzgewinn auch

00:15:19: nutzen zu können und davon zu profitieren. Und damit sind verschiedene Risiken verbunden. Sie

00:15:27: haben ein paar schon genannt. Da würde ich gerne nochmal ein bisschen in die Details gehen. Was

00:15:34: sehen Sie denn da? Worauf sollten Unternehmen eigentlich auch ein bisschen aufpassen,

00:15:38: ihre Mitarbeiter auch sensibilisieren? Manches weiß man ja einfach, wenn man mit gesunden Menschen

00:15:45: im Verstand herangeht. Aber manchmal wird auch einfach nur gedacht, das ist hier wie,

00:15:51: wenn ich ein Word, irgendwas eintrage und dann steht da Text. Und bei ChatGPT, da steht auch

00:15:59: Text. Also wird nicht ganz verstanden vielleicht, was da tiefer dahinter steckt auch.

00:16:05: Also es ist eine Blackbox, die ausgesprochen leistungsfähig ist. Also ich bin auch ein

00:16:09: Befürworter der KI an sich. Das muss man schon sagen. Es sind ganz tolle Möglichkeiten. Die

00:16:13: Risiken muss man natürlich besprechen. Das tun wir ja auch gleich weiter. Aber das Problem ist,

00:16:19: wenn Sie eine KI als Suchmaschine benutzen, dann funktioniert das nur bedingt. Es gibt

00:16:25: Stände, Versionsstände von ChatGPT, die auf September 2021 basieren. Und sie können

00:16:35: nicht nach aktuellen Geschehnissen fragen. Wenn Sie eine offene Frage stellen, die im Jahr 2022

00:16:39: anders beantwortet werden würde als 2021 noch, dann bekommen Sie eine falsche oder

00:16:44: unvollständige Antwort. Und Sie verlassen sich vielleicht auf diese Antwort, weil die KI ja so

00:16:48: antwortet wie ein Mensch. Man muss dazu sagen, es gibt ja den sogenannten Turing-Test, der Alan

00:16:54: Turing, der im Zweiten Weltkrieg die Enigma entwickelt hat, mit der die Kommunikation der

00:16:59: Deutschen im Krieg entschlüsselt werden konnte. Der hat also einen Test erdacht, der bis vor

00:17:05: kurzem nicht gelöst werden konnte. Und der besagt, dass ein Computer dann als intelligent so wie ein

00:17:12: Mensch gilt, wenn er den Turing-Test besteht. Und zwar, Sie haben zwei Räume. In einem ist ein

00:17:16: menschlicher Befrager. In einem anderen Raum, der getrennt ist optisch und auch akustisch von dem

00:17:22: Probanden, also Computer oder Mensch, ist dann der Computer in dem Fall. Und der menschliche

00:17:27: Fragesteller schickt dann, reicht dann so Kärtchen rein, ohne zu wissen, wer die Kärtchen bekommt.

00:17:31: Und die werden dann vom Menschen entweder gelesen oder von einem Computer, der dann die Karten in

00:17:35: sein System eingetippt bekommt. Und ChatGPT ist tatsächlich in der Lage, das muss man einfach so

00:17:40: sagen, diese Fragen zu beantworten wie ein Mensch und auch, muss man ehrlich sagen, besser als ein

00:17:46: Mensch üblicherweise. Wir müssen wissen, der Durchschnitts-IQ ist ungefähr 100 eines Menschen.

00:17:51: Wenn Sie sich die Fragen angucken und die Antworten, dann werden Sie feststellen, dass

00:17:55: ChatGPT deutlich über 100 liegt. Meistens. Also in Wissensgebieten, wo Wissen eben vorhanden ist

00:18:00: in der KI. Und das nutzen viele Menschen denken eben, die Antwort ist toll, der glaube ich jetzt.

00:18:06: Da gibt es ja dieses Beispiel mit dem New Yorker Rechtsanwalt, der dann Präzedenzfälle gesucht hat

00:18:11: und ChatGPT hat dann zwölf Urteile erfunden. Halluzination heißt das. Und da nimmt er das

00:18:16: einfach, weil er denkt, das ist so toll geschrieben, das muss also stimmen. Und das kann man natürlich

00:18:21: nicht machen. Unternehmen haben natürlich auch noch ein Problem, anders als wenn wir beide jetzt

00:18:25: ChatGPT nutzen würden für eine private Fragestellung. Die können ja nicht einfach

00:18:30: irgendwelche Mitarbeiterdaten da eingeben. Vielleicht will der Mitarbeiter das gar nicht.

00:18:33: Oder auch Geschäftsgeheimnisse hochladen. Ja, ich möchte also diesen Vertrag X oder meine

00:18:39: Patentschrift, da möchte ich jetzt mal eine Zusammenfassung erhalten oder sowas. Ja,

00:18:43: dann, also das würde glaube ich kein Unternehmen machen, was so ein bisschen weiß, was mit den

00:18:47: Daten passiert. Oder auch urheberrechtlich, wenn wir über Bilderzeugung reden. Sie erzeugen Bilder,

00:18:53: das mache ich ja auch. Stable Diffusion heißt das Verfahren. Das ist ganz toll. Ich erzeuge die

00:18:58: Bilder auch für meinen Blog. Der Punkt ist, Sie müssen halt sicherstellen, dass das erzeugte

00:19:02: Bild nicht ähnlich genug mit einem Originalwerk ist, was urheberrechtlich automatisch geschützt

00:19:07: ist, damit Sie nicht Urheberrechte verletzen. Das ist auch nicht so ähnlich wie das normale Werk.

00:19:12: Das kann man auch technisch nachprüfen. Das mache ich auch. Aber theoretisch, wenn ein Bild rauskommt,

00:19:18: was ähnlich genug mit dem Originalwerk ist, hätten Sie ein Urheberproblem. Das muss man

00:19:22: immer wissen. Und insofern halte ich Chat GPT für Unternehmen, die für ihre eigenen Daten oder

00:19:28: eigenen Ziele, sage ich mal Bilder als Marketingmaterial verwenden, für hoch problematisch

00:19:34: und man sollte es nicht nutzen. Wenn es um allgemeine Fragestellungen geht, die kann man

00:19:37: natürlich da einstellen. Man muss aber wie gesagt wissen, dass es keine Suchmaschine ist und auch

00:19:42: nicht die aktuellen Nachrichten da einfließen. Das muss man einfach wissen. Wenn ich nach Goethe

00:19:45: frage oder dem Mount Everest, dann werde ich wohl die richtige Antwort kriegen. Außer zum Beispiel

00:19:50: dieses Jahr würde der Mount Everest neu vermessen werden mit immer besseren Methoden. Dann wüsste

00:19:54: man, dass er 50 Zentimeter niedriger ist oder einen Meter. Dann wäre die Antwort wieder falsch. Also

00:19:58: man muss immer wissen, was mache ich und für Unternehmensanwendungen halte ich eben Chat GPT

00:20:02: für überwiegend ungeeignet aus dem genannten Gründen. Es gibt ja auch das andere Problem,

00:20:11: was jetzt auch schon aufgetreten ist, dass Premium-Accounts von Chat GPT im Darknet

00:20:18: gehandelt werden. Ist ja ebenfalls dann im Prinzip so eine Art Risiko, wenn man jetzt sagen würde,

00:20:25: ja okay, ich habe ja hier einen passwortgeschützten Zugang. Wo ist denn das Problem jetzt? Ist ja das

00:20:33: Geschäftsgeheimnis nur zwischen mir und Chat GPT. Sieht ja sonst keiner. Ja, also da kann ich ein

00:20:39: ganz konkretes Beispiel nennen. Es gibt einen sogenannten API-Key, also API-Schlüssel, also

00:20:44: Schnittstellenschlüssel für OpenAI, wie Sie sagen, Premium-Anwender. Ich habe auch einen. Und den

00:20:49: brauchen Sie, wenn Sie programmtechnisch den Chatbot ansprechen wollen. Also Sie wollen ja

00:20:53: nicht im Prompt irgendwas reintippen für Unternehmensanwendungen vielleicht, sondern im

00:20:57: Hintergrund es automatisiert da hinschicken und die Antwort zurückkriegen. Und dafür brauchen Sie

00:21:01: diesen API-Schlüssel. Und der ist oft, also wirklich schätze ich 5 Prozent der Fälle,

00:21:06: auf einer populären KI-Plattform, wo jeder seine Codes reinlädt zur Bereicherung der Allgemeinheit,

00:21:13: sind in 5 Prozent der Fälle ungefähr diese API-Schlüssel aus Versehen vorhanden. So,

00:21:19: das sind meistens Privatleute, aber es gibt ja auch Mitarbeiter, die auch privat sind und die

00:21:23: nehmen vielleicht den Schlüssel und vergessen ihn rauszunehmen. Und schon haben Sie Zugang

00:21:27: zu diesem Unternehmensaccount. Also das ist, wie Sie sagen, ein reales Risiko. Da muss man nicht

00:21:33: mal Hacker sein, man muss nicht mal ins Darknet gehen. Ich gehe auf eine offizielle Plattform und

00:21:37: ich habe die tatsächlich auch schon mal ausprobiert. Ich habe festgestellt, ja, das geht. Man muss

00:21:40: auch dazu wissen, jede Nutzung, jede Anfrage, die man an ChatGPT über diese Schnittstelle schickt,

00:21:46: kostet Geld. Das sind dann, muss ich so vorstellen, vielleicht nur 0,2 Cent pro Anfrage. Aber

00:21:52: typischerweise stellt man auch mal 1.000 Anfragen oder 10.000 und da kommen dann halt mal ein paar

00:21:57: Euro pro Tag zusammen. Und im Monat ist es mal 30. Und wenn Sie es kostenlos haben, weil es der

00:22:03: Schlüssel von jemand anderes ist, dann erhöhe ich es vielleicht um den Faktor 100 noch mal.

00:22:06: Ja, also auch ein kleines Risiko, was man nicht ganz außer Acht lassen sollte. Aber wie geht es

00:22:14: denn jetzt? Wie kann man denn jetzt künstliche Intelligenzanwendungen, wenn das so viel bringt

00:22:21: und auch der Effizienzgewinn ist ja frappierend und auch da. Und deswegen, wir beide haben diese

00:22:29: Einschätzung ja auch schon geteilt. Das ist sinnvoll, sich damit auseinanderzusetzen. Es ist

00:22:35: sinnvoll, da weiterzugehen. Wie kann ich es denn jetzt machen? Wie kann ich es einsetzen und auch

00:22:41: im Hinblick auf Datenschutz, im Hinblick auf die anderen Risiken denn rechtskonform machen?

00:22:47: Also sehr gute Frage. Ich meine, ich versuche ja auch, Lösungen zu geben. Nicht nur zu sagen,

00:22:52: was nicht geht. Und wir brauchen jetzt hier, wie gesagt, ja nicht nur den Datenschutz zu

00:22:56: bemühen, sondern es gibt ja auch Geschäftsgeheimnisse oder dieses Urheberrecht oder

00:23:00: vertrauliche Daten. Wenn ich mit Ihnen einen Vertrag mache, dass ich darüber nicht rede,

00:23:04: über diese und jene Sache, dann kann ich das Dokument, wo ich eine Vertraulichkeit zugesagt

00:23:08: habe, nicht einfach in ChatGPT reinladen. Da habe ich, glaube ich, ein eigenes Interesse dran.

00:23:12: Da muss nicht jemand von Datenschutz kommen extra oder so oder Patente. Also der Punkt ist,

00:23:18: ich muss da kurz ausholen ein bisschen. Diese KI-Anwendungen wie ChatGPT, die laufen auf

00:23:23: einer NASA-Hardware, nenne ich sie jetzt mal. Das heißt, es gibt nur ganz wenige Unternehmen in der

00:23:28: Welt, die so eine Hardware haben. Sie können die sich auch mieten, aber das ist, ich sage es jetzt

00:23:32: mal auf Deutsch, schweineteuer. Das heißt, niemand macht das, außer sie sind so weit mit ihrem

00:23:38: Unternehmen drin in der KI-Anwendung und haben so viel Geld, dass sie das auch machen können,

00:23:42: weil der Nutzer ist ja wirklich da. Also was gibt es für Möglichkeiten? Sie müssen erstmals

00:23:46: Unternehmen rausfinden, was sind meine Anwendungsfälle. Ich kenne zum Beispiel jemand,

00:23:50: der sagt, ja, ich verstehe die Frage gar nicht. Ich möchte einfach eine KI haben, für alles

00:23:55: sozusagen, so wie ChatGPT. Das muss ich sagen, geht nicht. Also realistischerweise geht das nicht,

00:24:00: weil mein Ansatz ist ja, die Unternehmen haben eigene Systeme. So, entweder eigene Server auch

00:24:07: oder sie mieten sich einen Server, aber dann bitte in Deutschland oder Europa. Und zwar nicht nur

00:24:11: vom Serverstandort her, sondern auch vom Betreiber des Servers, also Anbieter des Servers. Der ist

00:24:15: nämlich auch deutsche Firma oder europäische Firma und nicht eine Niederlassung eines

00:24:21: amerikanischen Konzerns zum Beispiel. Das wäre nämlich auch wieder ein Problem, weil die NSA

00:24:25: oder FBI können nämlich da hingehen und sagen, gib uns mal die Daten. Da ist interessiert wenig,

00:24:29: was wir in Europa für Gesetze haben. Also KI-Anwendungen basieren überwiegend auf

00:24:34: Grafikkarten. Die Grafikkarte, das muss ich kurz erklären, die kennt jeder, weil sie eine Ausgabe

00:24:40: in Form von Bildern oder Texten auf dem Monitor darstellt. Das ist für KI-Anwendungen irrelevant.

00:24:46: Die Grafikkarte hat zufällig ganz viele Prozessoren, also Kerne genannt. Zum Beispiel meine hier,

00:24:51: die hat knapp 6000. Ich habe auch eine gemietet, die hat über 10.000 Kerne. Normaler CPU-Prozessor

00:24:59: im Rechner hat 8, 10 oder 12 oder 24 Kerne, wenn er sehr gut ist. Für KI-Anwendungen müssen diese

00:25:04: Kerne alle gleichzeitig rechnen. Jetzt können Sie sich vorstellen, wenn Sie dem Albert Einstein

00:25:09: eine Multiplikationsaufgabe geben, dann wird er schneller fertig sein als Sie oder ich,

00:25:12: wahrscheinlich. Wenn Sie aber 10.000 Multiplikationsaufgaben haben und nur

00:25:18: ein Albert Einstein, dann wird er ungefähr 5.000 Mal länger brauchen, als wenn von uns beiden 10.000

00:25:24: Menschen da wären, die gut, halbwegs gut multiplizieren können und wir diese Aufgabe

00:25:28: kriegen. Genauso ist es bei der Grafikkarte. Die ist halt um den Faktor 50 oder 100 oder je nach

00:25:32: Grafikkarte eben noch viel schneller als ein sehr guter Computer. Und man muss wissen, jeder,

00:25:37: der Chat GPT schon mal genutzt hat, weiß es, das dauert sehr lange, bis da eine Antwort kommt.

00:25:41: Ja, deswegen wird das so Streaming heißt es, also wortweise aufgebaut. Also Sie müssen nicht warten,

00:25:47: bis die Antwort fertig ist und kriegen dann alles gezeigt, sondern Sie kriegen ein Prozent der

00:25:51: Antwort, dann das nächste Prozent und bis die 100 Prozent da sind, dauert es schon mal 20,

00:25:55: 30 Sekunden. Und so lange will halt normalerweise keiner warten und die Hardware ist schon sehr gut,

00:25:59: wobei da auch viele Nutzer drauf sind. Also, was gibt es für Möglichkeiten? Sie mieten sich einen

00:26:04: Server oder haben selbst einen mit einer guten Grafikkarte. Eine gute Grafikkarte, wo Sie schon

00:26:08: was mitmachen können, die kostet knapp 2.000 Euro und mit der, da kommt der Computer noch dazu,

00:26:14: diesen Server können Sie kaufen oder mieten und um diesen Server aber so nutzen zu können,

00:26:20: dass da ein leistungsfähiges elektronisches Gehirn, also KI-Modell draufläuft, müssen Sie Techniken

00:26:26: anwenden, die helfen, den Ressourcenhunger der KI-Anwendung zu reduzieren. Das habe ich gemacht

00:26:31: und das funktioniert. Es ist ein bisschen Arbeit, man muss sich da reinfuchsen, würde ich keinem

00:26:36: empfehlen, der noch nie programmiert hat, kommt ja nicht weit. Und dann haben Sie aber ein System,

00:26:41: was auf einer bezahlbaren Consumer-Grade-Hardware heißt es, andere wäre die Data-Center-Class-Hardware,

00:26:47: also auf einer bezahlbaren Consumer-Grade-Hardware, die auch Gamer bei sich zu Hause haben, läuft und

00:26:55: die wirklich erstaunliche Ergebnisse bringt. Sie haben ja meinen Artikel gelesen zum Thema KI. Ich

00:27:00: habe also ein Frage-Antwort-System gebaut für meinen Blog, Datenschutzblog Dr. DSGVO und da habe

00:27:05: ich alle paar hundert Artikel, die ich da geschrieben habe, reingeladen und habe mir

00:27:08: Fragen ausgedacht. Braucht meine Webseite ein Cookie-Pop-Up oder was ist eine Cookie-Bar? Ich

00:27:14: verwende den Begriff gar nicht, aber Cookie-Bar hat jemand anders, den ich kenne, verwendet und

00:27:18: ich soll ja die KI nicht so bauen, dass sie meine Fragen beantwortet, sondern von anderen Leuten. Und

00:27:23: was ist eine Cookie-Bar ist schon relativ anspruchsvoll, weil der Begriff sehr selten ist.

00:27:27: Und dann habe ich eben ein paar Iterationsschritte gebraucht, bis ich meiner KI unter den Ressourcen,

00:27:32: die ich habe und mir zugestehen will, hingekriegt, dass sie mir sehr gute Antworten liefern kann. Ich

00:27:38: habe dann auch gefragt, ist Klaus Meffert böse? Ja, also Fragen, die im Prinzip eigentlich gar

00:27:44: nichts dazu suchen, haben wir mal im Datenschutzblog. Das macht ja jeder, wenn er irgendwas

00:27:47: machen kann, dann gibt es auch eine diese oder was ist die Antwort auf alle Fragen? Der Klassiker

00:27:52: Douglas Adams, sowas gibt man dann auch ein und ich habe also Mechanismus entwickelt, mit dem man

00:27:58: herausfinden kann, ob die Antwort aus meinem Wissensbestand Dr. DSGVO kommt oder aus dem

00:28:04: Sprachmodell selbst, was der KI zugrunde liegt. Wenn die Antwort aus dem Sprachmodell selbst kommt,

00:28:09: dann ist es natürlich nicht die Antwort, die ich geben würde unter Umständen. Es kann sein,

00:28:14: aber dann kennt es ja ich nicht diese Antwort eben als Antwort, die außerhalb meines Wissensschatzes

00:28:19: liegt sozusagen. Also des Wissensschatzes, den die KI von mir bekommen hat. Und da kann man eben sehr

00:28:23: weit gehen. Man kann also mit autarken Systemen, also lokale Systeme, die ohne Internetverbindung

00:28:29: funktionieren würden, nur im Intranet des Unternehmens laufen könnten, kann man eben

00:28:33: alle Probleme wegwischen. Sie haben kein Datenschutzproblem mehr, Amerika, Google,

00:28:38: ChatGPT. Sie wissen nicht, was mit den Daten passiert. Sie haben kein Geschäftsgeheimnis-Problem

00:28:43: mehr. Es kriegt ja kein anderer die Daten. Sie haben kein Vertraulichkeitsproblem mehr, denn

00:28:47: die Daten bleiben ja da, wo sie sind, bei Ihnen. Und dann haben Sie das Problem gelöst. Und noch

00:28:52: ein Vorteil oder zwei, Sie sind nicht abhängig von jemand anders, weil wenn ChatGPT die Preise

00:28:56: verdoppelt morgen für die Schnittstelle oder Premiumnutzer, wie Sie sagen, dann müssen Sie das

00:29:01: akzeptieren. Sie können gar nichts tun. Und außerdem, wenn Sie diese nutzungsabhängige

00:29:06: Schnittstelle verwenden, dann wissen Sie halt nicht in jeder Minute, wie viele Kosten haben Sie

00:29:11: denn. Sie können da zwar draufschauen, aber man schaut ja nicht jeden Tag drauf. Und dann, wenn

00:29:15: das Programm falsch geschrieben ist, das ist durchaus bei Cloud-Anwendungen möglich und

00:29:19: passiert auch und beispielsweise eine Rekursion hat, also sich selbst immer wieder aufruft,

00:29:23: obwohl es das nicht soll, dann können Sie auch mal statt 100 Euro 10.000 Euro Kosten produzieren.

00:29:29: Also das ist jetzt kein Selbstläufer mit diesem Kostenmodell. Das muss man alles wissen. Und es

00:29:34: ist nicht alles immer nur gut, wenn ein Dritter es bereitstellt. Es vereinfacht es am Anfang,

00:29:38: aber wie es immer so ist. Alles, was am Anfang einfach ist, wird am Ende kompliziert und manchmal

00:29:43: teuer. Spannend. Da denke ich, wird es auch weitergehen und wird auch weitergehen müssen,

00:29:54: dass sich Unternehmen ihre jeweilig beste Lösung dann anschaffen oder für ihre Lösung oder die

00:30:05: Probleme, die sie lösen möchten, eben das richtige Modell da entsprechend bereitstellen. Eine andere

00:30:15: Geschichte, die im Zusammenhang mit künstlicher Intelligenz jetzt gerade auf Gesetzgebungsebene

00:30:23: auch Rechnung getragen wird. Es ist erkannt worden, wir brauchen im Prinzip gesetzliche

00:30:32: Regelungen und die EU schreitet voran. Die Bundesregierung ist ebenfalls aktiv. Wie ist

00:30:43: Ihr Blick auf diese Initiativen? Können die zu diesem Ziel beitragen, dass dieser ganze KI

00:30:51: Entwicklungsprozess ein Stück weit in Schranken geregelt wird? Wie sieht es mit der Geschwindigkeit

00:30:59: aus, wenn ich da an die Entwicklung der KI denke und die Gesetzgebungsentwicklung? Wie ist da Ihre

00:31:06: Einschätzung zu diesem Themenblock? Also zur Geschwindigkeit zuerst. In Deutschland kam meiner

00:31:14: Wahrnehmung nach so Februar, März die KI wirklich an. Die Spezialisten haben es vorher auch schon

00:31:20: ein bisschen, aber da war es wirklich so, da hat jeder gemerkt, dass in der Tagesschau kam und so

00:31:24: weiter. Also ich würde sagen, jede Woche gibt es neue Entwicklungen. So könnte man sagen. Also die

00:31:29: Geschwindigkeit der Gesetzgebung beträgt eher Jahre oder drei oder fünf Jahre. Also nicht ein Jahr,

00:31:34: sondern auch bei Gerichten übrigens. Und die der technologischen Entwicklung kann man in Tagen oder

00:31:40: Wochen oder vielleicht auch wenigen Monaten messen. Das wird sich auch nicht ändern, sondern das

00:31:44: verschärfen noch dieses Problem. Also was kann man bei der Regulierung der KI tun? Natürlich kann

00:31:49: man, das wird ja auch diskutiert, sagen, wenn Sie ein KI-generiertes Bild nutzen, dann sollten Sie es

00:31:53: auch als KI-generiertes Bild kennzeichnen. Oder wenn irgendein Text entsteht, der eine KI-Mitwirkung

00:32:00: hat, zumindest wenn die Originalworte der KI vielleicht noch enthalten sind, könnte man drüber

00:32:04: reden, ob man das kennzeichnen muss. Allerdings kann man den Rest meiner Meinung nach überhaupt

00:32:10: gar nicht regeln durch Bürokratie. Also es ist ja kein Unterschied irgendwie nach außen, ob Sie

00:32:16: jetzt genial sind und auf irgendeine Idee kommen, gut oder böse, sei mal dahingestellt, oder ob Sie

00:32:22: eine KI fragen, die Sie bei sich zu Hause haben und die gibt Ihnen die Antwort und Sie nutzen das

00:32:26: so, als hätten Sie es erfunden. Das kann doch niemand rausfinden. Also ich meine, eine KI ist

00:32:31: dasselbe wie ein Mensch, muss man sagen. Das klingt jetzt blöd, aber das Grundprinzip einer

00:32:36: künstlichen Intelligenz, wie es heute da ist, also Transformeransatz, Einbettung heißt es,

00:32:41: also Embeddings, Vektorisierung, das sind alles Mechanismen, die exakt so, sage ich, im menschlichen

00:32:47: Gehirn auch stattfinden. Es gibt keinen Unterschied und das führt auch dazu, sage ich, und das sagt

00:32:52: auch der Pionier der KI, ich glaube, der heißt Jürgen Schmidt-Huber oder Schmidt-Bauer aus München,

00:32:57: der war jetzt vor kurzem auch bei Markus Lanz, der war der Vater des Vorgängers des Transformeransatzes

00:33:02: und anderer Dinge, der sagt auch, also es wird demnächst auch Roboter geben, die mindestens so

00:33:08: intelligent sind wie ein Rhesus-Affe und das möchte er noch erleben. Ich glaube, er ist ein bisschen

00:33:11: pessimistisch. Es wird, ich weiß die Zahl nicht, aber ich schätze mal in 10, 20 oder aller spätestens 30

00:33:17: Jahren, es wäre aber schon sehr spät meiner Meinung nach, Roboter geben, die deutlich überlegen sind

00:33:22: einem Menschen, was die intellektuellen Fähigkeiten angeht. Also die Augen haben, die Ohren haben, die

00:33:27: noch mehr Sensoren haben als wir. Also man kann das meiner Meinung nach nicht regulieren. Ich habe

00:33:32: mir jetzt KI-Modelle teilweise heruntergeladen, teilweise selbst trainiert, die sind da, die kann

00:33:37: mir auch niemand wegnehmen. Wenn es natürlich verboten wäre, sowas zu besitzen, wüsste ich gerne

00:33:42: mal, wer herausfindet, wer solche Software auf seinem Computer hat. Ja, also ich meine, es ist ja

00:33:46: keine Kinderpornografie oder sowas. Ja, es sind ja Bits und Bytes einfach nur erstmal. Also da kann

00:33:51: man nichts tun. Ich kann nur empfehlen und das passiert ja teilweise jetzt auch schon, zu

00:33:56: sanktionieren, wenn irgendwas nicht richtig ist. Das ist der einzige, das ist übrigens das Gleiche

00:34:00: wie bei den sogenannten Cookie-Pop-Ups. Da kommt ja die Bundesregierung und sagt, wir wollen jetzt

00:34:04: einen neuen Ansatz, der übrigens nicht funktionieren kann. Ich habe das auch als Stellungnahme dahin

00:34:08: geschickt gestern. PIMS genannt, Paragraph 26 der DDSG. Wir wollen da jetzt eine Zentrale schaffen.

00:34:13: Das funktioniert aus verschiedensten Gründen nicht. Das hat nicht nur rechtliche, sondern auch logische

00:34:16: und technische Gründe. Der einzige Weg, wie man Cookie-Pop-Ups in Deutschland reduziert, ist, alle

00:34:21: zu bestrafen, die es falsch machen. Das klingt leider blöd, aber sie müssen nämlich auf ihrer

00:34:26: Webseite gar kein Cookie-Pop-Up haben. Und wenn sie eins haben, dann können sie das ja machen.

00:34:30: Aber wenn sie jetzt bestimmte Produkte nutzen, wo sie gar nicht wissen, was da passiert, dann

00:34:34: können sie das auch schlecht rechtskonform machen. Und genauso ist bei der KI. Übrigens hat er da

00:34:38: auch schon das dafür gesorgt, dass Google den Chatbot BART, heißt er glaube ich, also analog zu

00:34:45: ChatGPT, nicht in Europa einführt momentan, sondern noch warten muss wegen Datenschutz-Themen.

00:34:50: Und jetzt habe ich auch gelesen, dass Facebook den Twitter-Klon, den sie da bauen wollen, namens

00:34:56: Threads, auch nicht in Europa direkt einführen können oder wollen, weil da auch rechtliche

00:35:03: Bedenken von Europa angemeldet worden sind. Das sind die guten Gründe, die man anführen kann, um

00:35:08: KI in dem Fall dann zu beherrschen. Also die müssen schauen, was passiert. Und wenn es nicht gut ist,

00:35:15: also rechtswidrig, dann muss man es eben rügen oder bemängeln oder sanktionieren. Aber sie können

00:35:20: jetzt meiner Meinung nach nicht sagen, alles, was von der KI generiert wird, unterliegt besonderen

00:35:24: Bestimmungen. Weil es gibt keinen Unterschied zwischen dem, was eine KI generiert, typischerweise,

00:35:28: und dem, was ein Mensch generiert. Der einzige Unterschied ist, dass eine KI an einem Tag 100.000

00:35:33: Bilder generieren kann und ich als Mensch nicht. Und bei den Texten ist es genauso. Also sie erkennen,

00:35:38: es gibt ja keinen Unterschied. Und vielleicht noch zum Schluss der Beantwortung dieser Frage,

00:35:42: ein Anwalt sagte mir auch, mit dem ich zusammen Vortrag gehalten habe zur KI, beim Urheberrecht

00:35:48: zum Beispiel. Als Mensch darf ich ein Bild malen und das darf ich auch veröffentlichen. Es wird

00:35:52: dann aber ein Problem, wenn ich mich zu sehr an einem urheberrechtlich geschützten Werk orientiere.

00:35:56: Wenn ich jetzt ein Coca-Cola-Schriftzug nachmalen würde, sodass er direkt erkennbar ist,

00:36:00: hätte ich ein Problem. Dasselbe ist bei einer KI der Fall. Alles, was der Mensch darf,

00:36:05: was diese Urheberwerke zum Beispiel anbelangt, darf die KI auch. Und alles, was der Mensch nicht

00:36:10: darf, darf die KI auch nicht. Da gibt es keinen Unterschied. Es kommt also auf das Ergebnis an.

00:36:14: Und wo das Ergebnis herkommt, weiß ja keiner. Es gibt zwar Möglichkeiten, dass man Wasserzeichen

00:36:19: einbaut, aber die kann man auch wieder entfernen. Und ich habe lokale Systeme, die Bilder generieren,

00:36:23: da gibt es kein Wasserzeichen. Da werde ich mir auch keines einbauen, weil es auf meinem

00:36:27: eigenen Rechner läuft. Und dann eine Frage, die wir wahrscheinlich gar nicht beantworten können,

00:36:34: ist dann die Frage, sobald die KI selbst läuft, Stichwort selbstfahrende Autos,

00:36:42: die Verantwortungsfrage. Ja, ganz spannend. Da habe ich nämlich mit jemand vor einem Jahr gewettet,

00:36:48: dass innerhalb der nächsten zehn Jahre, also noch neun Jahre hin, in Deutschland keine

00:36:51: selbstfahrenden Autos existieren werden. Also zumindest in einem Maße, wo man sagt,

00:36:55: 99 Prozent des Fahrens übernimmt das Auto. Also auch bei schlechtem Wetter und so weiter. Auch

00:37:01: in Frankfurt in der Innenstadt zum Beispiel und nicht nur auf der Landstraße oder so. Oder nicht

00:37:05: nur bei Tempo 40 bis 60, sondern auch bei Tempo 0 bis 180. Und der Grund, wie Sie sagen, es ist

00:37:12: eben so, dass ein Computer deutlich genauer ist als ein Mensch, typischerweise. Aber wenn er dann

00:37:20: einen Fehler macht, der auch noch gravierend ist, dann ist es viel schlimmer, als wenn ein Mensch

00:37:24: diesen Fehler gemacht hätte. Wie Sie sagen, die Verantwortung, da wird der Mensch dann ins

00:37:27: Gefängnis gesperrt, weil er grob fahrlässig jemanden umgefahren hat. Computer kann man

00:37:31: schlecht ins Gefängnis sperren. Zudem kommt noch dazu, dass dem Computer ja momentan jegliche

00:37:35: Lebenserfahrung fehlt. Es ist einfach eine Blechkiste, die ans Internet angeschlossen

00:37:40: ist und der Mensch, der läuft in der Gegend rum und weiß, wenn ein Verkehrsschild umfällt,

00:37:44: dass es demnächst auf dem Boden landet und zum Hindernis wird. Das weiß eine KI üblicherweise

00:37:49: nicht. Und wie sich Autos verhalten. Und alleine deswegen wird es selbstfahrende Autos in

00:37:54: Deutschland auf normalen Straßen nicht geben. Also wie gesagt, nennenswert selbstfahrend. Außer,

00:38:00: und das ist meine Theorie, was passieren wird, es wird auf ausgesuchten Strecken,

00:38:04: wird es Leitsysteme geben, zum Beispiel Sensorik und ähnliches, Punktsignale. Und mit denen kann

00:38:10: sich das Auto dann kommunizieren, verbinden und weiß dann, wo es ist und was es tun soll. Das

00:38:17: kann ich mir vorstellen. Aber alles andere halte ich persönlich für ausgeschlossen.

00:38:21: Ja, auch eben ein spannendes Thema. Das führt jetzt aber ein bisschen weiter weg.

00:38:25: Ja, es ist eine hochspannende Zeit, in der wir da leben, in der Sie forschen und Ihre Inhalte auch

00:38:38: teilen. Danke dafür. Ich lese die Dr. DSGVO-Seite sehr gerne und höre ihn auch auf Ihrem Podcast,

00:38:46: den Sie ja ebenfalls haben. Der heißt Datenschutz Deluxe, richtig? Genau,

00:38:51: und der ist ja ebenfalls in den Podcast-Tools zu finden bzw. auf Ihrer Webseite. Wenn da jemand

00:38:58: Interesse hat, auch neben diesem Podcast Datenschutz PRAXIS noch weitere Podcasts zu

00:39:04: hören, das ist ebenfalls eine spannende Geschichte. Ja, vielleicht dazu eine Anmerkung. Und zwar habe

00:39:09: ich mithilfe einer KI, die auch lokal läuft, wohlgemerkt, meinen Podcast, da gab es ja dann

00:39:14: schon ein paar Folgen, ich weiß nicht mehr auswendig, transkribiert. Das heißt, alles,

00:39:19: was wir gesagt haben im Podcast, der lief jemals so 20, 30 Minuten lang, habe ich mit der KI in

00:39:24: Text umgewandelt, weil manuell macht das einfach keinen Spaß. Und ich habe die KI dann so weit

00:39:29: getrieben, dass ich bei einer halben Stunde Aufzeichnung mit zwei Sprecher und ein Intro,

00:39:34: wo eine Dame auf Musik auch noch spricht, das wird auch erkannt, die KI so genau ist,

00:39:41: dass höchstens ungefähr fünf Worte korrigiert werden müssen. Und wir verwenden schon wilde

00:39:46: Ausdrücke. Also da sind Sachen dabei, die nicht im normalen Sprachgebrauch drin sind und Worte,

00:39:51: die ich nicht mal kannte, zum Beispiel Hömmele. Ich kenne das Wort immer noch nicht, aber die

00:39:57: KI hat es erkannt. Und ich habe dann auch mal spaßeshalber von einem sozialen Netzwerk ein

00:40:01: Video reingeladen auf Bayerisch. Eine Frau aus Bayern hat sich da aufgeregt über ein

00:40:05: Gesetzgebungsverfahren. Also auch wieder eine Materie, die jetzt schwierig ist. Und da hat

00:40:11: die KI, ich würde jetzt mal sagen, 90 Prozent erkannt. Mehr als ich als Mensch fast schon. Es

00:40:16: gab Begriffe, da musste ich auch selbst nachschlagen, weil ich selbst nicht wusste,

00:40:19: was das bedeutet. Also kann ich jetzt auch nicht von der KI erwarten, dass sie das Bayerisch,

00:40:23: ohne es gelernt zu haben vorher. Es war ja Hochdeutsch, was der Anspruch war. Aber mindestens

00:40:28: 90 Prozent, beziehungsweise es waren schon mehr als zehn Prozent, die nicht, also die erkannt,

00:40:33: also es wurde, die zehn Prozent ist eigentlich auch zu viel. Es waren vielleicht 15 Worte,

00:40:38: die das Ding nicht erkannt hat, in einem fünfminütigen Sprech. Hochbayerisch sozusagen.

00:40:42: Ja, also wirklich tiefstes Bayern. Da habe ich mir als Mensch schon sehr schwer getan,

00:40:47: das überhaupt zu verstehen. Und die KI hat das Allermeiste verstanden.

00:40:50: Ja, das sind wir vom Datenschutzpraxis-Podcast noch schuldig, diese Transkriptionen. Weil wir

00:40:57: tatsächlich noch vor zwei Jahren relativ schlechte Erfahrungen gemacht haben mit den

00:41:02: Transkriptionen, es viel Arbeit war. Auch da, Sie sagen es, da tut sich so enorm viel. Ja,

00:41:09: deswegen in diesem Sinne kann ich nur empfehlen, eben mit dem nötigen Augenmaß und mit

00:41:16: unterberücksichtigen eben solcher Risiken, wie sie jetzt unser Klaus Meffert, Dr. DSGVO,

00:41:23: uns auch ein bisschen mit uns geteilt hat. Mit Ihnen, liebe Zuhörerinnen und Zuhörer,

00:41:29: kann ich auch nur raten, bleiben Sie dabei, bleiben Sie am Ball. Schließen Sie sich da

00:41:36: nicht aus aus diesem KI-Thema. Ich glaube, das wird uns nicht mehr so schnell verlassen. Und

00:41:42: ja, die Entwicklung ist spannend. Das muss man ja ohnehin auch sagen.

00:41:46: Ja, jeder soll KI nutzen, verantwortungsvoll. Und mein Plädoyer ist, Anwendungsfälle schärfen und

00:41:52: eigene Systeme nutzen. Dann haben Sie die volle Kontrolle. Es gibt viel mehr Möglichkeiten. Man

00:41:56: kann nicht alles machen, aber das, was man machen kann, kann man viel besser machen.

00:42:00: Danke, Klaus Meffert, für das Gespräch. Und ja, Ihnen, liebe Zuhörerinnen und Zuhörer,

00:42:06: auch vielen Dank für Ihr Interesse.

00:42:08: Tschüss.