#32 Compliance-Bootcamp: KI, Kultur, Compliance: Trend-Trio oder Überlebensformel?
Shownotes
In dieser Folge von Code of C, aufgenommen beim DICO Forum in Berlin, widmet sich Martin Reichetseder gemeinsam mit Marie von der Groeben, Chief Compliance Officer der Deutschen Telekom und Sprecherin des DICO-Vorstands, einem Zukunftsthema. Es geht um die Rolle von Compliance im Zusammenhang mit KI (künstliche Intelligenz).
Marie von der Groeben ruft dazu auf, dass sich Compliance Officer aktiv mit KI und ihren Chancen sowie auch ihren Risiken auseinandersetzen sollten. Nicht aus Angst, ersetzt zu werden, sondern um zu verstehen, wie KI die eigene Arbeit verbessern kann. Im Gespräch beleuchten Martin und Marie zwei zentrale Perspektiven: Zum einen, wie KI in der Compliance genutzt werden kann (etwa in der Datenanalyse, im Monitoring oder für innovative Schulungsformate). Zum anderen, welche ethischen und rechtlichen Fragen sich durch den Einsatz von KI für Compliance stellen: Bias? Menschliche Verantwortung?
Anhand konkreter Beispiele aus der Praxis wird deutlich: Digitale Ethik und KI-Governance sind keine Zukunftsmusik, sondern zentrale Bestandteile einer modernen Compliance-Arbeit. Die Devise lautet: Ermöglichen statt verbieten (mit klaren Leitlinien), Mut zur Veränderung und einem starken Bewusstsein für Verantwortung.
Weiterführende Links: Weiterführende Links:
- Link zu .LOUPE
- LinkedIn Seite von .LOUPE)
- Link zur DICO Folge den Social-Media-Kanälen von Code of C, um keine Updates zur zweiten Staffel zu verpassen!
- LinkedIn Seite von Martin Reichetseder
- LinkedIn Seite von Code of C - Der True-Compliance-Podcast von .LOUPE
- Instagram Kanal von Code of C - Der True-Compliance-Podcast von .LOUPE
Transkript anzeigen
00:00:00: Diese Folge ist Powered by DECO, dem Deutschen Institut für Compliance.
00:00:20: Wir packen alle Richtlinien in eine Software, in unsere Compliance Software, und da haben wir alle Compliance-Richtlinien drinnen.
00:00:27: Und das System hat dann die Möglichkeit, dass ich einen Jetboard dabei und mit dem Jetboard kann ich meine Fragen den Jetboard stellen.
00:00:33: Und er generiert mir nur aus den Richtlinien, die da drinnen hat, die richtigen Antworten.
00:00:37: Und ich habe aber zusätzlich Mikro-Learning-Elemente.
00:00:40: Das heißt, das System wirft mir permanent aus den Richtlinien, die da drinnen sind.
00:00:44: Kleine Häppchen mit, hast du gewusst, das?
00:00:49: Herzlich willkommen zu einem neuen Compliance Bootcamp von Kudovsi, dem True Compliance Podcast von LUB.
00:00:55: Hier sprechen wir über Compliance aus der Praxis für die Praxis.
00:00:58: Mein Name ist Martin Reichteter, ich bin Compliance Officer, ich bin Mitgründer von LUB und ich bin für die nächsten Minuten Ihr Gastgeber.
00:01:06: Wir sind auch heute wieder oder immer noch in Berlin beim DICO Forum.
00:01:10: Wir nutzen die Pausen, die wir haben, um interessante Gespräche zu führen und Gespräche über unsere eigene Praxis als Compliance Officer.
00:01:17: zu führen, um uns auszutauschen, zu vernetzen.
00:01:20: Wir nutzen das Dikoforum für Impulse und wir nutzen auch dieses Bootcamp für Impulse.
00:01:26: Und ich habe einen wunderbaren Gast jetzt bei mir.
00:01:28: Wir sprechen über ein wunderbares Thema.
00:01:30: Es geht um das Thema Zukunft.
00:01:32: Und es freut mich ganz besonders, es ist mir wirklich eine ganz besondere Freude und eine Ehre, Marie von der Grüben, Chief Compliance Officer der Deutschen Pelecom und Sprecherin des Dikovorstands bei mir begrüßen zu dürfen.
00:01:44: Lieber Marie, herzlich willkommen.
00:01:45: Schön, dass du da bist.
00:01:47: Vielen Dank, ich freue mich sehr.
00:01:49: Liebe Marie, wir wechseln sofort in die Code of C Empfehlungsrunde.
00:01:55: Bei Code of C gibt es ja immer ein wiederkehrendes Element.
00:01:59: Das wiederkehrende Element in dem Bootcamp folgen ist nicht der Mutmacher.
00:02:03: Das ist auch nicht der Check-in, sondern in unserem Fall ist das die Code of C Empfehlungsrunde.
00:02:17: Gut auf Sie, Empfehlungsraum.
00:02:18: lesen Sie es in der Regel so, dass ich eine Empfehlung gebe aus meiner eigenen Praxis, das Bücher, die man lesen muss oder wo ich glaube, dass man es lesen muss.
00:02:25: Oder Veranstaltungen, die man besuchen sollte.
00:02:28: In den TIKO-Folgen ist es aber so, dass meine Gäste das Privileg, die Ehre, die Freude haben, eine kleine Empfehlung von sich aus abzugeben für die Zuhörerinnen und Zuhörer.
00:02:37: Hast du eine kleine Empfehlung mitgenommen?
00:02:40: Ja, meine Empfehlung wäre Compliance Officer dieser Welt.
00:02:44: Befasst euch mit KI.
00:02:46: Das ist eine wunderbare Empfehlung, das Thema KI.
00:02:49: Du hast jetzt eigentlich schon die perfekte Brücke geschlagen zu dem Thema, das wir haben, also die Empfehlungsrunde, da die Empfehlung von der Marie ist, sich mit KI zu beschäftigen.
00:02:59: Wenn ich das jetzt nehme.
00:02:59: und wenn ich jetzt diesen Ball, den du mir da jetzt drüber wirfst, mit der KI auch nehme, dann bin ich ein bisschen ziehgespalten aufgrund meiner eigenen Realität.
00:03:09: Wenn ich mich über das Thema KI unterhalte in meiner Rolle als Compliance Officer, Mit Kolleginnen und Kollegen in der Compliance, dann höre ich ganz oft, ja das nutze ich, ich nutze KI, bis hin zu, nein KI nutze ich nicht, weil ich will ja nicht ersetzt werden.
00:03:25: Ich höre aber auch mit KI, von dem will ich gar nichts hören, weil ich weiß gar nicht, wie ich es regeln soll, bis hin zu, na wir haben eh den EIEkt, denn arbeite ich einfach ab.
00:03:36: Also wir haben eine Spanbreite bei dem Thema KI, wo ich selbst auch noch nicht die richtige Lösung gefunden habe.
00:03:42: Auch muss ich sagen, weil ich in einem Unternehmen bin, in einem Industrieunternehmen, wo es auf die Frage wie verwenden wir den KI, verwenden wir KI überhaupt und was ist unsere Strategie beim Thema KI, ich noch keine Info habe.
00:03:55: Und ich ihn weiter als Compliance Officer jetzt ein bisschen in der Luft hängen und ein bisschen im Dunkeln bin.
00:04:00: Und ich freue mich daher umso mehr, dass du da bist bei mir, um da vielleicht ein bisschen Licht auch ins Dunkel zu bringen.
00:04:07: Also vielleicht ist das schon die erste Frage und der erste Aufhänger für dich und für unser Gespräch.
00:04:12: Wie verbinden wir den Compliance mit KI?
00:04:15: Wie gehört das zusammen?
00:04:18: Auf was müssen wir denn achten überhaupt?
00:04:20: Und wie spielt denn KI, spielt das überhaupt eine Rolle?
00:04:23: Also, ich glaube, um dieses breite Feld, was du gerade aufgerissen hast, um das ein bisschen zu strukturieren, es gibt zwei große Bereiche.
00:04:31: Das eine ist das Thema, wie kann KI in der Compliance eingesetzt und genutzt werden?
00:04:38: Und das andere große Thema ist, welche Risiken sind vielleicht auch mit KI verbunden und welche Chancen natürlich auch, aber welche Rolle spielt Compliance bei der Frage, Gibt es eine KI-Governance im Unternehmen?
00:04:53: Also, wie überprüfe ich überhaupt KI?
00:04:55: Also, das eine, wie nutze ich sie selber?
00:04:57: Und das andere ist, wie managte ich das Risiko aus KI bestmöglich?
00:05:04: Da höre ich ja ganz oft, dass, gerade für dieses zweite Thema, das du sagst, nämlich wie managte ich denn das Risiko?
00:05:11: Jetzt sind wir in der Compliance oft selbst im Risiko und das ist auch Teil unserer Aufgabe.
00:05:17: Aber wenn es um das Thema KI geht, höre ich von ganz vielen Kolleginnen und Kollegen, die sagen, nein, das ist nicht mein Thema.
00:05:23: Das ist ein Thema der IT-Abteilung.
00:05:25: So, ich sehe das ein bisschen zwiehgespalten, weil ich immer sage, dass keines der Compliance-Themen ist ein reines Compliance-Thema, weil wir haben ja keinen Selbstzweck.
00:05:33: Also wir sind ja immer nur im Verbund mit anderen erfolgreich und wir brauchen ja die Schnittstelle.
00:05:38: Aber ich wirke bei dem Thema EIN nicht ausschließlich die IT-Em歷ien.
00:05:43: Wie?
00:05:44: Wie ist es mit dir?
00:05:45: Wie ist es bei euch?
00:05:45: Absolut richtig, was du da sagst.
00:05:47: KI ist einfach ein Thema mit so vielfältigen Implikationen, dass das nie nur aus einer Perspektive betrachtet werden kann.
00:05:57: Ja, du hast ja eingangs auch gesagt, wie wird KI im Unternehmen überhaupt eingesetzt?
00:06:00: Welchen Use Case?
00:06:02: Welche Gewinne erhoffe ich mir denn durch den Einsatz von KI?
00:06:05: Will ich Daten analysieren?
00:06:07: Will ich?
00:06:08: Kunden beeinflussen auf eine positive Art und Weise.
00:06:11: Mit deren Zustimmung natürlich will ich Prozesse optimieren.
00:06:15: Wofür nutze ich überhaupt KI?
00:06:17: Und du hast gerade das Thema oder den Begriff Schnittstelle genannt, wenn ich da gleich ansetzen kann.
00:06:22: Ich glaube KI ist ein Thema, das wie kein anderes ist notwendig macht, das man mit allen möglichen Schnittstellen bereichen.
00:06:30: sich zusammenschließt und alle Perspektiven einholt.
00:06:32: Also den Datenschutz, die Security, die auch die Sicherheit im Sinne von welcher Daten nicht nur welche Risiken kommen aus der KI im Hinblick auf Cyberangriffe, aber auch welche Tools nutze ich denn, welche Risiken sind da drin, welche Daten werden überhaupt nicht nur personenbezogene Daten auch.
00:06:50: Unternehmensdaten werden da möglicherweise eingespielt, welche technischen Use-Cases, potenziellen Business-Cases habe ich im Unternehmen.
00:06:59: Das ist ganz, ganz wichtig, dass alle Perspektiven zusammenkommen.
00:07:03: Die ist schonens Perspektiven, Datenschutz, Sicherheit, Recht, Compliance, aber eben auch die Business-Perspektiven, die das auch technisch beurteilen können.
00:07:12: Was macht denn die KI?
00:07:13: Wie arbeitet die KI?
00:07:14: Welche Daten nutzt die KI?
00:07:15: In welchem Zusammenhang möchte ich die einsetzen?
00:07:18: Und da haben wir bei der Telekom sind wir in der glücklichen Lage, dass wir uns schon seit vielen, vielen Jahren mit dem Thema digitale Ethik beschäftigen und schon vor CHETGPT und auch vor dem EUAI-Akt uns ein interdisziplinieres Netzwerk im Konzern ausgebaut haben, wo wir einfach ein gutes Netzwerk haben, die regelmäßig zusammenkommen und die zum Beispiel als CHETGPT rauskam und dieser riesen Hype entstand, haben wir in der Gruppe sehr schnell Leitlinien.
00:07:46: erarbeitet und veröffentlicht, wo genau drin stand, ihr dürft der GPT nutzen, aber ihr dürft kein Unternehmen zu intern aber reingeben.
00:07:53: Ihr bleibt für die Ergebnisse eurer Arbeit verantwortlich.
00:07:57: Also ihr könnt jetzt nicht blind auf die Ergebnisse vertrauen.
00:08:00: Und da hatten wir eben sehr schnell im Sinne einer Ermöglichungskultur.
00:08:04: Ja, nutzt KI, wir verstehen den Bedarf.
00:08:08: Wir wollen das ermöglichen, aber mit bestimmten Guardrails, worauf wir eben achten müssen.
00:08:12: Ja, und das war nur möglich.
00:08:14: Dadurch, dass wir dieses breite Netzwerk bereits hatten, in dem wir uns mit allen Perspektiven ausgetauscht haben.
00:08:19: Wunderbar und scheinbar aber auch.
00:08:21: Denn, ich nenn's jetzt nicht den Ton from the top, weil das ist vielleicht ein bisschen zu auf einer Metaebene, aber auch wahrscheinlich von der Geschäftsführung, vom Vorstand, auch den kleinen Auftrag, dass Digitalisierung, dass das Thema künstliche Intelligenz ein Thema ist.
00:08:36: Weil sonst könnte Tier das ja gar nicht machen, wenn nicht von oben das in einen strategischen Wert hätte.
00:08:41: Und darum war Tier wahrscheinlich auch vorbereitet auf das Thema.
00:08:44: Absolut.
00:08:44: Also das Thema KI wird als Technologie unternehmen, das wir uns ja auch verstehen.
00:08:51: Das Thema KI ist wirklich Priorität.
00:08:54: Auch von unserem Vorstandsvorsitzenden, Tim Höttges, wird das ganz stark in den Vordergrund gestellt und er appelliert an alle Führungskräfte.
00:09:00: Alle haben die Aufgabe, befasst euch mit KI, überlegt euch, wie könnt ihr KI einsetzen?
00:09:05: Und wir haben ganz, ganz tolle Lernangebote im Konzern zum Thema KI.
00:09:09: Tolle Speaker, die erklären, wie hat sich KI entwickelt?
00:09:13: Was macht die KI?
00:09:14: Was kann sie?
00:09:14: Was kann sie auch nicht?
00:09:16: Und da gibt es eine ganz breite Lernangebote.
00:09:20: und eine Initiative, die sehr erfolgreich war, die tatsächlich von einer Kollegin bei mir aus dem Bereich initiiert wurde, war relativ kurz nach dem Chat-GPT-Hype haben wir einen Promptoton organisiert im Konzern.
00:09:33: Und zwar haben wir erst Business Challenges, Legal Challenges, alle möglichen Herausforderungen eingesammelt, hatten so, ich glaube, um die fünfzig.
00:09:43: Probleme, Challenges, Herausforderungen und haben dann einen Promptaton organisiert, wo aus dem ganzen Konzern Kollegen aus allen verschiedenen Bereichen teilnehmen konnten, haben einen ganz großen Raum.
00:09:53: Wir haben einen ganz großen Besprechungsraum, ähnlich wie der, wo hier unten das DECO-Forum stattfindet.
00:09:58: Hatten den organisiert.
00:10:00: Wenn man an einem Tag, kamen diese ungefähr zweieinhalb Kollegen zusammen.
00:10:04: Es gab eine Einführung.
00:10:06: Wir haben die und die KI-Tools hier, die könnt ihr jetzt alle mal ausprobieren.
00:10:10: Wir haben die und die Guardrails, die ihr beachten müsst.
00:10:12: Und wir haben die und die Herausforderungen, an denen ihr doch jetzt mal arbeiten könnt.
00:10:17: Und dann haben die einen kleinen zusammengemixten Teams das einfach mal ausprobiert.
00:10:22: Und wenn man das einmal ausprobiert hat, und das kann man ja auch im privaten Tun allein, wenn man eine Urlaubsreise buchen will oder so und sagt, schlag mir vor.
00:10:31: drei Tage in Budapest mit zwei Kindern, mein Alter so und so und ich will ein bisschen Kultur, aber ich will auch Spaß und ich will auch Freizeit.
00:10:40: Also, wenn man schon allein mit solchen Dingen aus dem täglichen Leben mal ausprobiert, wenn man mal so eine Erfahrung gemacht hat, dann sieht man einfach, was KI auch leisten kann, was dafür tolle Ergebnisse rauskommt, wie es die eigene Arbeit vereinfachen kann und mit so einem positiven Gedanken daran zu gehen, mit so einer Offenheit.
00:11:01: Ja, das macht einfach viele Möglichkeiten auf.
00:11:05: Und das beschreibt auch so wunderbar in Wahrheit, was auch ein Teil unserer Verpflichtung ist in der Compliance.
00:11:11: Stillstand ist kein Konzept für Erfolgen der Compliance, das kann man an dieser Stelle schon sagen, das heißt für uns Compliance-Office, ich klammer jetzt nur diesen Business-Part aus, aber zumindest die Verwendung von KI und sich mit diesen neuen Möglichkeiten auseinanderzusetzen, ist eine Und da mache ich jetzt ein Tick in der Box.
00:11:28: Das ist unsere Verpflichtung, weil wir auch stattfinden müssen in der Compliance, in den Herausforderungen und in den Veränderungen, denen sich die Unternehmen auch konfrontiert sehen.
00:11:37: Das heißt zu sagen, das Thema interessiert ich will nicht, weil ich will nicht ersetzt werden, ist eigentlich dumm.
00:11:42: Ich muss mich damit auseinandersetzen, um zu verstehen, Was ist denn das überhaupt?
00:11:47: Um auch zu erkennen, wie kann mich das denn auch unterstützen?
00:11:50: Oder was passiert denn da überhaupt in diesem Thema?
00:11:53: Das heißt, du hast wunderbar beschrieben, die Verpflichtung der Compliance auch eigentlich aus der eigenen Komfortzone herauszugehen, weil Veränderung eigentlich das einzig stetige ist, das uns in der Compliance auch umtreibt.
00:12:04: Und wenn wir nicht verstehen, dass wir mit diesen Dingen auch mitwachsen müssen, dann sind wir in der Compliance schlichtweg falsch.
00:12:10: Und das ist ein wunderbarer Appell, denn du an dieser Stelle denn du gegeben hast und der sich natürlich anschließt an deine Empfehlung.
00:12:16: Ein Video in der Empfehlungsrunde gegeben hast.
00:12:18: Jetzt klingt das bei dir ein bisschen, in Österreich würde ich sagen, man wird ein bisschen wunderlich, also das heißt, man wird irgendwie ein bisschen, man kriegt Gänsehaut und man freut sich so innerlich und man ist so ein bisschen angetan von dem Thema, weil das klingt bei dir wie ein Winterwunderland.
00:12:34: Das muss ich sagen, auch wenn ihr sagt, ihr macht's der Veranstaltungen, wo ihr, und weit, Kolleginnen und Kollegen befähigt.
00:12:42: Empowert, dass sie mit dieser Technologie sich anfreunden, lernen, in einem geschützten Umfeld, dass sich gar nicht so geschützt anfühlt, weil es ist was Neues und sie werden an die Hand genommen, angeleitet, Kompetenzaufbau, durchtun, gemeinsam mit anderen Abteilungen.
00:12:57: Das ist so großartig.
00:12:59: Ich glaube, dass das ganz, und ich glaube, dass das wirklich was ist, was viele Kolleginnen und Kollegen sich denken, dass genau so müsste man das tun.
00:13:07: Ich glaube, und das ist auch meine eigene Realität, wenn Dieser strategische Appell der Geschäftsführung nicht da ist.
00:13:17: Beschäftigt es euch mit diesem Thema?
00:13:19: Dann ist das eine gewisse Hemmschwelle.
00:13:23: Aber da schließe ich jetzt den Greis wieder zu dem, was du vorhin gesagt hast, auch mit dem ausprobieren und machen.
00:13:28: Den müssen wir als Compliance aus der Komfortzone und dann müssen wir dieses Thema halt schlichtweg bottom abtreiben, weil eins kann nicht die Lösung sein, es zu ignorieren.
00:13:37: Weil es wird Teil und es ist auch Teil der Unternehmenskultur.
00:13:42: Weil wie viel Schattenkarriere gibt es denn in den Unternehmen?
00:13:44: Man beschäftigt sich vielleicht nicht mit der Schattenkarriere, weil man das Thema gar nicht am Schirm hat und man sagt wie bei uns wir machen keine Karriere und wir beschäftigen uns nicht.
00:13:52: Aber es ist schlichtweg Teil der Realität der Menschen und die Menschen nehmen ihre Realität mit ins Unternehmen.
00:13:58: Und dann ist es eigentlich nur dumm zu sagen, ich beschäftige mich nicht aus Business Sicht.
00:14:03: Wenn ich mich aus Business nicht damit beschäftige, komme ich aus Compliance, weil ich sage, da muss ich es mit den Risiken machen, die ich habe.
00:14:09: Und ich glaube, dass wir da wunderbare Brücke auch haben zu dem Thema, wo muss denn Compliance auch aufschlagen?
00:14:15: und durch wunderbare Risiken genannt, sei es ein Datenschutzrisiko, ich würde jetzt nur sagen, urheberrechtliche Risiken und und und, also da gibt es ja eine Bandbreite an Themen, was mich noch interessieren würde, ist jetzt digitale Ethik.
00:14:27: Ich habe verstanden, das hat es ja vor, die Idee oder das Konzept gibt es ja schon vor, Jejipiti.
00:14:33: Was ist das?
00:14:35: Also es geht eigentlich darum, einen verantwortungsvollen Umgang mit KI sicherzustellen.
00:14:40: Und die Telekom hat sich da schon im Jahr zwanzig achtzehn selbst bindende Leitlinien gegeben.
00:14:45: Und da stehen ein paar grund grundsätzliche Maßnahmen, Rahmenbedingungen drin, die so ähnlich dann auch Eingang im EUAI-Akt gefunden haben.
00:14:56: Also da steht eben zum Beispiel drin, dass wir eine KI, wenn wir die einsetzen, sicherstellen müssen, dass die... bias-free ist.
00:15:02: Also das auch was für Daten ist, die KI trainiert worden, sind da nicht irgendwelche biases drin, die die Ergebnisse verfälschen.
00:15:09: Da steht zum Beispiel drin, dass immer der Mensch am Ende verantwortlich bleiben muss.
00:15:14: Also ich darf nicht, das zählt nicht als Ausrede, ja ich habe eine KI genutzt und der hat gesagt, das Ergebnis ist richtig und dann habe ich das einfach, habe ich meinen eigenen Kopf abgestellt und habe einfach auf dieses Ergebnis vertraut.
00:15:24: Das ist ein ganz ganz wichtiger Punkt.
00:15:27: wo ich auch für die Zukunft ein großes Risiko drin sehe, um da noch ein bisschen tiefer reinzugehen.
00:15:33: Was wir ja alle sehen ist, das Motto jetzt hier vom DECO Forum ist ja auch Compliance in der Zareisprobe.
00:15:38: Und das ist ja nicht nur etwas, was Compliance betrifft, sondern auch, was alle Menschen gerade fühlen und eigentlich ganz, ganz viele Industrien auch betrifft.
00:15:47: Wenn man die Automobilindustrie sieht, wenn man sieht, was in der Welt los ist mit geopolitischen Krisen.
00:15:52: Also alle fühlen ja einen immensen Druck.
00:15:56: Die Wirtschaft ist unter Druck und die Menschen suchen ja nach Lösungen, wie kann ich mit weniger Menschen, mit weniger Geld, mit weniger Ressourcen immer noch meinen Job erledigen, obwohl die Herausforderungen beständig steigen.
00:16:08: Und da ist natürlich die Versuchung sehr groß, eine KI einzusetzen.
00:16:11: Und die KI kann bestimmt auch an ganz vielen Stellen wunderbar helfen und tatsächlich mir helfen, meinen Job besser zu machen.
00:16:19: Aber ich darf den Ergebnissen nicht blind vertrauen.
00:16:23: Ich muss schon noch selber in der Verantwortung bleiben.
00:16:25: Ich muss verstehen, wie arbeitet die KI?
00:16:28: und wofür setze ich die KI ein?
00:16:30: Und ich glaube, das ist, wenn wir jetzt nochmal zwanzig Jahre in die Zukunft blicken und denken, was lernen denn jetzt gerade unsere Kinder und die jungen Leute?
00:16:38: Ja, das ist ja so wahnsinnig verführerisch, so eine KI.
00:16:42: Und die Antworten klingen auch immer super gut.
00:16:44: Ja, das ist ja wie, als hätte ich tausend Praktikanten verfügbar.
00:16:48: Auf einen Schlag, die nie meckern, die jede noch so öde Arbeit für mich machen, wenn ich eine KI einsetze.
00:16:54: Aber die KI kommt ja auch immer sehr selbstbewusst zurück.
00:16:58: Also die Ergebnisse klingen total toll, sind super gut ausformuliert.
00:17:02: Und die KI sagt ja nicht, an der Stelle bin ich mir jetzt nicht so sicher, ob es richtig ist.
00:17:06: Und manchmal liest man da etwas und das ist total plausibel.
00:17:09: Aber es ist totaler Unsinn.
00:17:11: Es klingt gut, aber es ist Unsinn.
00:17:12: Und wir müssen uns dieses kritische Denken... bewahren, um die Ergebnisse hinterfragen zu können.
00:17:18: Und die Frage ist, wie bewahren wir uns denn dieses Denken, wenn wir jetzt lernen, so viel mit KI zu arbeiten, so viel auf KI zu vertrauen und dann einfach nicht mehr die Zeit da ist.
00:17:27: Na ja, das hat ja die KI geprüft, dann wird es schon stimmen.
00:17:30: Ja, da gibt es ja auch eine Tendenz, dass die Menschen in der KI eher vertrauen als eine Menschen und dabei vergessen, dass die KI ja auch nur von Menschen programmiert wurde und nur von Menschen gelernt hat.
00:17:40: Und das alles, was ich da rein tue, wenn die KI da nicht weiter lernt, sich einfach perpetuiert.
00:17:45: Also wenn da jetzt gibt's ja zahlreiche Fallstudien von einem Unternehmen in den USA, das eine KI in dem Rekrutierungsprozess eingesetzt hatte und dann kam nachher raus, das weibliche Bewerbungen benachteiligt wurden.
00:18:00: Weil eben die KI aus alten Daten gelernt hat und da waren eben nur Männer im System.
00:18:06: Und daraufhin hat die KI gedacht, wenn sie denn denken könnte oder analysiert, gut Männer sind eher geeignet für den Job.
00:18:13: Was aber nicht stimmt.
00:18:14: Und das hat halt niemand gemerkt.
00:18:16: Die KI hat auf die, die lernt, auf Basis der Daten, die jetzt da sind und macht daraus Schlussfolgerungen.
00:18:22: Daraus sagt sie, okay, das nächste wahrscheinliche Wort, die nächste wahrscheinliche Möglichkeit ist dann, wenn es immer Männer waren, dass es wieder ein Mann ist.
00:18:30: Ja?
00:18:30: Wie verrückt das ist.
00:18:31: Also, wenn man sich tatsächlich wirklich immer für Augen führt.
00:18:34: nicht nur verrückt, sondern wie gefährlich das ist.
00:18:37: Und da muss man auch wirklich sagen, also wenn da jetzt jemand noch zweifelt daran, dass die Komplein seine Aufgabe hat im Umgang mit KI, dann sollte man vielleicht das eigene Jobprofil oder deinen eigenen Job vielleicht einmal hinterfragen, weil du liefest da eine Antwort nach der anderen, die in die Richtung abzielt, ja.
00:18:53: Compliance und KI, das muss zusammenspielen, das gehört zusammen.
00:18:58: Also ich bin völlig überzeugt und ich hatte vorher natürlich schon die Überzeugung, dass ich das Compliance und KI zusammengehört, aber du lieferst ja der eine Antwort nach der anderen und ich habe mir da jetzt nur was aufgeschrieben.
00:19:10: Weil da wollte ich vorhin schon einhaken, aber ich hänge an deinen Worten.
00:19:14: Darum ist es ein bisschen schwierig, weil ich, wie ich es in Wahrheit höre, die wahnsinnig gerne zuhören dem, was du sagst, weil ich gerade ganz viel Lärm und ganz viel Bestätigung kriege von dem, was ich mir schon vorher gedacht habe.
00:19:24: Aber ich wollte bei diesem, bei der digitalen Ethik noch einsteigen.
00:19:28: Weil da hast du, in Wahrheit ist es ein, für mich übersetzt, ein Code of Conduct für die Verwendung von KI.
00:19:36: Und ganz viele fragen sich, Und wie?
00:19:42: Und müssen wir KI mit aufnehmen in genau diese Verhaltensformen?
00:19:45: Und warum müssen wir das schon wieder regeln?
00:19:48: Du hast ein Wort gesagt, das bei mir wirklich was getriggert hat.
00:19:51: Das Wort bei uns.
00:19:53: So.
00:19:53: Und jetzt gibt es ganz viele Unternehmen.
00:19:57: Die alle wunderbar Mitglied sind beim UN-Global Compact, zum Beispiel.
00:20:01: Und wir selbst sind in dem Unternehmen, in dem ich tätig bin, Mitglied der UN-Global Compact.
00:20:05: Und wir haben uns diesen Prinzipien verschrieben, des UN-Global Compact.
00:20:09: Und da gehört zum Beispiel auch dazu, die Wahrung unterschutzt der Menschenrechte.
00:20:12: So.
00:20:13: Und jetzt sind wir in dem Beispiel, das wird zum Schluss gesagt, dass bei der Entscheidung nehmen wir einen Mann oder nehmen wir eine Frau.
00:20:19: Aber das Weitergespielt ist ja an das, will man ja gar nicht Denken.
00:20:24: in Wahrheit, das ist ja wie gefährlich das ist.
00:20:27: Und warum sollte denn da plötzlich der Code of Conduct oder die Verhaltensgrundsätze oder unser Werteverständnis plötzlich aufhören beim Thema KI, wenn sich genau daraus ja wirklich Risiken verwirklichen, zu denen ich mich aber verpflichtet habe, dass ich dagegen etwas tue?
00:20:45: Also für mich ist das jetzt ein Augenöffner, dass ich genau über diese Schiene nämlich rein komme, weil Auch unsere Geschäftsführung sagt, natürlich sind wir Mitglied beim Juane Global Compact.
00:20:54: Natürlich verschreiben wir uns diesen Dingen, aber wir müssen das Thema strategisch verankern, denn wir haben alle anderen Business-Elemente auch strategisch verankert.
00:21:01: Und wenn ich daraus mich verpflichte, Maßnahmen abzuleiten aus dem Prinzipien der Juane Global Compact, kann ich die KI nicht ausklammern, weil die genau diese Risiken mit verwirklichen, durch die weniger wunderbaren, aber auch wunderbaren Beispiele, die du jetzt geliefert hast, zum Thema Bias, Diskriminierung, Also da schließt sich für mich der Kreis und wir reden jetzt über New England Global Compact und über Menschenrechte.
00:21:25: Und bei der KI reden wir über Menschenrechte.
00:21:27: Absolut.
00:21:28: Also das Thema digitaler Teilhabe ist ja auch ein großes Thema daran.
00:21:33: Also wie ermöglicht es ich jetzt Menschen überhaupt auch mit KI zu arbeiten und... an der KI teilzuhaben und mich damit zu befassen, dass auch ein großes Element im AI-Akt ist, dieses Thema AI Literacy zu fördern, also Menschen zu befähigen, damit umzugehend.
00:21:52: zu verstehen, wie nutze ich denn eine KI, wie arbeitet die KI.
00:21:55: Und wir haben, ich hatte ja ein gutes Beispiel genannt, den Promptaton, den wir gemacht haben.
00:21:59: Ja, Promptaton ist ein
00:21:59: Beispiel.
00:21:59: Und ich habe eine Kollegin bei mir im Team, die hat sich jetzt auch als Prompt-Engineer ausbilden lassen.
00:22:05: Und Prompten ist, ich weiß jetzt nicht, wer alles zuhört, aber da geht es ja eben darum, wie man der KI die richtigen Fragen stellt.
00:22:11: Und das ist auch absolut total faszinierend, wenn man mal ein bisschen mit einer KI spielt, wie man merkt.
00:22:17: Je mehr Rahmeninformation, je mehr Kontext ich gebe, je mehr ... Also, ich kann ja alles vorgeben über das Format, in dem ich die Antwort haben möchte, über den Adressaten, für den das bestimmt ist, was ich tue.
00:22:32: Und wenn man sich ein bisschen damit auskennt, wie ich richtig prompte, dann kann ich auch die Ergebnisse, die aus der KI rauskommen, signifikant verbessern.
00:22:40: Und ich glaub, das ist auch eine große ... gesellschaftliche Aufgabe auch für die Zukunft, weil natürlich die Menschen, die jetzt schon sehr stark bevorteiligt sind, weil sie in Ländern aufwachsen mit Zugriff zu neuen Technologien, mit demokratischen Strukturen, die ja jetzt schon einen großen Vorteil haben, wenn die jetzt noch KI nutzen können, dann wird ja der Gap zwischen Menschen, die kein Zugriff auf solche Möglichkeiten haben, immer noch größer.
00:23:08: Da schwingt doch immer das Thema Verantwortung auch mit.
00:23:11: dass wir natürlich auch alle haben und die auch die Compliance hat, weil nicht umsonst ist der Kompetenzaufbau eigentlich ein Compliance-Thema.
00:23:18: Vom EEI-Akt würde ich sagen, das Risikothema, das würde ich mal nehmen, aber auch diese Verpflichtung Kompetenzaufbau, das ist ja dieses Thema Schulungen, Informationen, das ist ja eine Kernaufgabe der Compliance, dieses, ihr nennt es immer gern oder ich verpack das immer gern unter den Aspekten des Beziehungsmanagements, weil ich immer sage, unsere Aufgabe ist es, positiv auf das Verhalten von Menschen einzurücken.
00:23:39: Und damit geht natürlich auch immer einher, dass ich Menschen befähige und empaure.
00:23:43: Die Compliance muss Menschen befähigen, Risiken zu identifizieren, zu bewerten und Entscheidungen zu treffen, die gesund und richtig sind.
00:23:51: Also, weil sie dieses sich ordentlich verhalten.
00:23:53: Und wenn ich das jetzt mit der KI auch mache, dann ist ja zum Beispiel so eine Veranstaltung, wie du die gemacht hast, ist ja eine wunderbare Möglichkeit genau an diesem Kompetenzaufbau.
00:24:03: zu arbeiten und das auch so zu gestalten.
00:24:06: Und das ist ja jetzt so, wie das verstanden kann, keine reine Compliance-Veranstaltung, sondern das ist eine Veranstaltung, wo ganz viele Professionen kommen.
00:24:12: Und das zeigt auch wieder diese schöne Brückenfunktion, Brückenbauerfunktion, Schnittstellenfunktion, auch wieder der Compliance.
00:24:18: Ich finde, du gibst mir so viele Antworten zum Thema KI, das ist ganz, ganz, ganz großartig, wirklich.
00:24:24: Vielleicht, wenn ich noch einen Punkt ergänzen darf, ich sehe das jetzt nicht als, ich glaube nicht, dass Compliance die treibende Kraft sein muss.
00:24:31: dafür zu sorgen, dass man sich auch mit Risiken der KI auseinandersetzt.
00:24:36: Oder dass ich halt überlegt, als Unternehmen, wie baue ich denn da mein Management-System auf?
00:24:41: Das ist ja ganz ähnlich wie in der Komplanz.
00:24:42: Wer ist mein Lieferant?
00:24:44: Wo hat er die Daten her?
00:24:46: Wofür setze ich das ein?
00:24:47: Also das ist ja eigentlich ein Risikomanagement-System wie jedes andere auch.
00:24:51: Ich glaube, compliance ist ein Aspekt darin, all diese ethischen Fragestellungen.
00:24:56: Aber es gibt eben, wie ich ja schon gesagt habe, auch Sicherheits, auch Datenschutz und ganz, ganz wichtig, die Business Aspekte.
00:25:02: Ja, also das ist ja eigentlich der absolute Treiber dahinter.
00:25:07: Für welche Business Use Cases möchte ich KI einsetzen.
00:25:11: Ja, und dass man dann da eben als Escholens Funktion dabei ist und das ermöglicht auf eine gute Art und Weise.
00:25:18: Das war jetzt der eine Teil.
00:25:20: Darf ich zu dem einen Teil nur kurz versammelt?
00:25:21: Du hast vorhin nämlich auch gesprochen von den Kindern und Jugendlichen, die ja jetzt den Umgang mit der KI lernen.
00:25:27: Und was bei mir im Hinterkopf immer so mitschwingt, ist natürlich immer dieses Vorurteil oder dieser Mythos, das sind der Compliance nur Juristinnen und Juristen arbeiten.
00:25:36: Und das zeigt es so wunderbar, dass jetzt sagt der Kollegin, die hat eine Engineering-Ausbildung jetzt gemacht.
00:25:45: Persönliche Wachstum, dass wir und auch die Verpflichtung uns Kompetenzen anzueignen, die nicht unser klassisches Berufsbild sind oder sonst ein klassisches Berufsbild gehören, ist unfassbar wichtig.
00:25:56: Und warum soll nicht ein Mensch, der Informationstechnologie studiert hat, in der Compliance wunderbar aufgehoben sein?
00:26:02: Und braucht keine juristische Ausbildung dafür?
00:26:06: Also ich war noch nie ein Fender von, dass im Compliance-Bereich nur juristensichtig sein sollte.
00:26:10: Ich glaube, das ist schädlich.
00:26:12: Also ich glaube, man braucht Leute, die Projektmanagement können, die wissen, wie Prozesse funktionieren, die wissen, wie man kommuniziert, wie man die Menschen erreicht, die Deutsch sprechen können, nicht juristen-deutsch.
00:26:23: Danke.
00:26:24: Die schwierige Dinge einfach machen.
00:26:26: Also klar brauchst du ein paar Juristen, aber du brauchst... Also du brauchst alle Professionen und ich finde es eigentlich am schönsten, wenn auch Leute aus der Compliance in andere Bereiche gehen und auch aus anderen Bereichen des Unternehmens in die Compliance Abteilung wechseln.
00:26:41: Weil man dadurch nicht nur ein gutes Netzwerbbekommt, sondern auch das Verständnis für die gegenseitigen Anforderungen und Erwartungen schärft.
00:26:48: Absolut,
00:26:48: weil wenn es ehrlich ist, bis zu acht Prozent unserer Tätigkeit liegen eigentlich in der Prävention und da ist ganz viel Kommunikation, da ist ganz viel der Austausch mit den Menschen und da braucht man nicht zwingend jemandem, der auf Juristen Deutsch erklärt, was sich nicht tun darf.
00:27:01: Wir sollten in der Kompliance auch und denken, wie wir kommunizieren.
00:27:05: Also das ist ein kleiner Set-Step, aber wir haben ja noch eine Säule, die wir besprechen wollen.
00:27:09: Genau, die zweite Säule ist ja eben auch als Compliance sich mit KI befassen, nicht nur im Sinne von, was sind da möglicherweise für Integritätsrisiken drin, sondern auch, wie kann ich denn selbst KI gut nutzen?
00:27:24: Und ich glaube KI ist wirklich ein, liest man ja auch überall, ja, das ist wirklich grundlegend die Art und Weise verändert, wie wir arbeiten und dass wir es auf eine gute Art und Weise wirklich gewinnbringend auch natürlich für Compliance-Themen einsetzen können.
00:27:39: Weil die große Stärke von KI liegt ja zum Beispiel in Datenanalysen.
00:27:42: Also kann man sich schon vorstellen beim Thema Investigations, dass natürlich eine KI dabei hilft.
00:27:48: viel schneller Daten zu analysieren, zu durch Forsten Auffälligkeiten festzustellen.
00:27:53: Das ist ein großer Bereich, aber auch in präventiven Themen, wenn man mal weiter denkt und sagt, man will Risiken viel schneller im Livebetrieb identifizieren, dass man Daten Auffälligkeiten eben früher identifiziert und dann möglichst eingreifen kann, bevor ein Risiko sich materialisiert.
00:28:14: Ganz viel beim ganzen Thema Datenanalyse, Datenauswertung.
00:28:18: Da gibt es riesige Möglichkeiten auch beim Thema Beratung.
00:28:24: Da KI einzusetzen, die auf Basis eines bestehenden Beratungspuls gelernt hat, wie Antworten üblicherweise sind und die dann vorschlägt zumindest, schon mal vorsortiert, vorbereitet, wo wird was hingehutet, wie könnte eine Antwort aussehen.
00:28:38: Da gibt es überall sehr, sehr viele gute Ansätze.
00:28:42: KI zu nutzen.
00:28:44: Natürlich muss man vorher, und ich glaube, das ist immer die schlechte Nachricht in alle Seiten, natürlich muss man vorher seine Prozesse sauber haben und seine Daten sauber haben, damit die KI auch auf einer guten Basis lernt.
00:28:55: Also auch bei KI gilt das Thema Gabbage in Gabbage Out.
00:28:58: Und wenn ich die für Unternehmensinterne, Vorgänge jeglicher Art nutzen will, dann muss ich mir vorher mal Gedanken darüber machen.
00:29:07: Wie soll es denn laufen?
00:29:08: Was soll denn die KI machen?
00:29:09: Und habe ich mal eine saure Datengrundlage?
00:29:11: Und das ist ja oft die allergrößte Herausforderung.
00:29:14: Das ist ja so ein wunderbarer Hinweis, weil das kennen wir natürlich auch immer beim Einsatz von Legal-Tech-Lösungen, wo man sagt, na jetzt wird die Software, wird es schon richten oder die KI wird es schon richten.
00:29:22: Genau.
00:29:23: Wir kaufen
00:29:23: uns ein Tool, das ist ein Problem.
00:29:24: Ja, das ist völlig rechtig.
00:29:25: So, ich darf das jetzt in diesem Podcast sagen.
00:29:27: Ein Schassprozess bleibt ein Schassprozess, selbst wenn ich eine Legal-Tech-Lösung, eine Software drüber stülpe oder in dem Fall auch.
00:29:35: Eine KI, also Gabel Chain, Gabel Chat, das ist ein wunderbarer Zusammenfassung davon.
00:29:42: Ich würde beim CMS, weil du jetzt gesagt hast, wo man das überall einsetzen kann, wenn wir jetzt die Elemente des CMS kurz ansehen.
00:29:49: Beim Tone from the top, da brauche ich zumindest die Strategie, da brauche ich keine KI.
00:29:54: Risiko-Management kann ich mit KI Unterstützung machen.
00:29:56: Das mit dem Monitoring ist ganz wunderbar.
00:29:59: Das Thema Ziele, Und Strategie, die Zielerreichung, wenn ich KPS habe, dass ich mir das auch monitoren lasse, kann ich auch mit der KI machen.
00:30:06: Beim Programm Schulungen, also auch beim Thema Schulung, wir haben ein wunderbares e-Learning bei uns in dem Unternehmen, das dauert forty-fünf Minuten.
00:30:18: Das ist beim ersten Mal ist das ganz wunderbar, weil da haben wir Kolleginnen und Kollegen aus der Organisation gebeten, bei Videos mitzumachen, Interviews zu führen, wir haben Schauspieler gehabt, das ist wirklich eine schöne Schulung.
00:30:28: Beim zweiten Mal ist die aber nicht mehr so super, weil sie ist dort, beim zweiten Mal wieder, von vierzig Minuten.
00:30:32: Beim dritten Mal sind die alle angefressen, weil sie es wieder machen müssen.
00:30:36: und aus dem Grund haben wir jetzt gesagt, wir müssen, dass irgendwie diese Themen, die in der einen Schuldenbrennen sind, so aufbrechen, dass sie häppchenweise viel interessanter wieder sind und vielleicht in drei bis fünf Minuten abhandelbar sind.
00:30:47: Und da hilft uns tatsächlich die KI?
00:30:50: Haben wir ausprobiert, haben wir der KI gesagt, wir wollen Schulungen einfach nur auch für so einen Promptinkurs innerhalb des Compliance-Teams.
00:30:57: Da machen wir das auch um die Leute dazu.
00:30:58: Die Kollegin, die diesen Prompt-Engineer gemacht hat, die bietet das jetzt für unser ganzes Team an und gibt ihr Wissen weiter.
00:31:03: Und da aus Versehen kam ein Prompt raus, der hieß, ich möchte eine Compliance-Schulung für Eichhörnchen machen.
00:31:12: Und will das Thema Korruption abdecken und schlage mir was vor.
00:31:15: Und dann hat die KI eine so lustige Case Study ausgespuckt mit ein Eichhörnchen.
00:31:21: Das hat ein Nüssevorrat gesammelt und dann kommt ein anderes Eichhörnchen und bietet ihm Gelder an, damit es was abgibt und so weiter.
00:31:27: Also, was ich nur sagen will, ist die KI kann wirklich ein super Sparing-Partner sein, um zu sagen, ich möchte die und die Inhalte für die und die Zielgruppe... rüberbringen und das soll interaktiv sein und in einfacher deutscher Sprache.
00:31:39: oder es ist eine Juristen-Community, der ich was vorstelle.
00:31:42: und die KI macht tolle Vorschläge.
00:31:44: Natürlich muss man da weiter mit arbeiten, man kann das nicht eins zu eins nehmen.
00:31:48: Aber da kommen super Impulse draus.
00:31:50: Auch bei der Richtlinienerstellung kann ich mir KI-Unterstützung nehmen.
00:31:55: Wir machen es gerade bei der Richtlinienanalyse, weil wir haben auch einen historisch gewachsenen Richtlinienbestand.
00:32:01: Und machen jetzt mit KI eine Analyse.
00:32:03: Sind die widerspruchsfrei?
00:32:04: Sind Zuständigkeiten klar definiert?
00:32:07: Gibt es
00:32:08: Prozesse, die überhaupt diese Richtlinie umsetzen?
00:32:10: Das ist natürlich auch immer die Frage.
00:32:12: Bürokratie ist ja überall alle echten unter der Bürokratie.
00:32:16: Und das ist auch ein Problem für Compliance.
00:32:17: Ich glaube, man muss die richtigen Regeln setzen und die dann auch durchsetzen.
00:32:22: Und wenn man eine Kultur bekommt, in der Regeln nur noch als Bürokratie empfunden werden, und damit eben umgangen werden können.
00:32:33: Und das ist akzeptiertes Verhalten.
00:32:35: Dann habe ich halt ein großes Problem in der Kultur, weil dann diffundieren, das Thema Regeleinhaltung diffundiert dann so weg und dann entstehen auch größere Verstöße.
00:32:46: Deswegen glaube ich müssen darauf hinwirken, die richtigen Regeln und die dann aber auch durchsetzen.
00:32:50: Absolut.
00:32:50: Darf ich da ganz kurz einhaken, was wir nämlich jetzt gerade machen?
00:32:54: Wir backen alle Richtlinien in eine Software.
00:32:56: in unsere Compliance-Software und da haben wir alle Compliance-Richtlinien drinnen.
00:33:00: Und das System hat dann die Möglichkeit, also ich habe ein Chatbot dabei und mit dem Chatbot kann ich meine Fragen den Chatbot stellen und er generiert mir nur aus den Richtlinien, die ich da drinnen habe, die richtigen Antworten und ich habe aber zusätzlich Mikro-Learning-Elemente, das heißt das System wirft mir permanent aus den Richtlinien, die da drinnen sind, kleine Häppchen mit, hast du gewusst das?
00:33:21: Hast du schon daran gedacht, das?
00:33:23: Das ist als Mitarbeiter, wenn ich auf der Oberfläche bin und etwas suche, kriege ich permanent aus der KI generierte Mikro-Learning-Elemente, was total super ist.
00:33:32: Und somit hilft mir das nämlich nicht nur bei der Schulung, sondern es hilft mir auch bei den Richtlinien und auch weil du sagst, auch das Einhalten der richtigen Richtlinien.
00:33:40: Wenn ich es schaffe, dass meine Kollegen und Kolleginnen auf ganz einfache Art und Weise Zugang zu der Richtlinie auch bekommen und ihre klaren Frage stellen können, wo steht es denn?
00:33:51: Weil ganz ehrlich, ich...
00:33:52: Keiner liest mehr Richtlinien, die Leute haben eine Frage und wollen eine Antwort.
00:33:56: Und Affilio, ein Richtlinienbestand, bei uns dasselbe zu sagen, du hast jetzt gegen die Richtlinie verstoßen, ja, so, ja, das ist die Richtlinie, die ich jetzt nicht gelesen habe, tut mir leid.
00:34:08: Also da können wir neues Gespräch anfangen über das Thema Integrated Assurance, weil ich glaube die Zukunft ist, die Richtlinie muss einfach prozess integriert sein, dass du da durchgeleitet wirst und nicht in Richtlinien lesen musst.
00:34:22: Sondern eben ein Prozess hast oder halt einfach eine Frage stellst und dann die Antwort bekommst.
00:34:26: Dann machen wir definitiv ein Gespräch dazu.
00:34:28: Das ist wirklich super.
00:34:30: Da sprechen wir die selber Sprache.
00:34:32: Also dann will ich sagen, das Programm machen wir jetzt einmal einen Haken, whistleblowing C kritisch.
00:34:36: Also KI beim whistleblowing C sehr kritisch, vielleicht noch wenn die KI im System ist und mir und mich unterstützt beim Erfassen des Sachverhalts oder des Berichts, dann ist es ein OK.
00:34:48: Aber nicht bei der Erste Entschätzung, nicht bei der Erhandlungsempfehlung, also nicht, wo ich als Mensch mir überlegen muss, welche Auswirkungen hat das auf einen anderen Mensch.
00:34:57: Da würde ich KI kritisch sehen.
00:35:00: Wenn ich gerade eine sehr intensive Investigation hinter mir mit sehr vielen Daten und sehr viel Textin war, sehr viele Interviews.
00:35:07: Da hätte mir KI in dem Fall wirklich geholfen.
00:35:11: Das zusammen zu fassen.
00:35:13: Und das haben wir nur im System kann ich eigentlich anklicken.
00:35:16: Ja, ich möchte Karrierunterstützung.
00:35:18: Wir haben es nur noch nicht getan, weil ich ja von der Geschäftsführung noch nicht weiß, wie verwenden wir den Karrier und kann ich und darf ich und aus dem Grund haben wir es noch nicht.
00:35:25: Aber das war jetzt für mich mein News, dass ich sage, hätte ich den Hacken setzen dürfen, wäre ich umso viel effizienter gewesen, weil mir das System aus allen Interviews mit einem Verweis auf die Quelle.
00:35:37: Nämlich das lernt ja nur aus dem, was da drinnen ist und nicht aus dem Web, sondern nur das, was im System drin ist.
00:35:43: Wäre das wirklich ein Gamechanger gewesen.
00:35:45: Also insofern, also, Marie ganz ehrlich, das war ein Shoutout für die Verwendung von KI.
00:35:53: Zwar Säulen, die wir abgehadelt haben und auf so großartige Art und Weise hast du so wunderbare Antworten geliefert zu dem Thema KI.
00:36:00: Ich bin völlig gehypt.
00:36:02: Vielen, vielen, vielen herzlichen Dank.
00:36:03: Vielen herzlichen Dank.
00:36:05: Sehr
00:36:05: gerne.
00:36:06: So,
00:36:06: ich lass dich jetzt noch nicht gehen.
00:36:08: Ich habe nämlich noch ein wiederkehrendes Element im Podcast und das ist unser Kodosy C-Wort.
00:36:13: Ich darf dich ersuchen, mir... Compliance in einem Wort zusammenzufassen.
00:36:17: Was ist Compliance für dich in einem Wort?
00:36:19: Verantwortung.
00:36:20: Ach
00:36:20: Gott, ja, das nehme ich unbedingt.
00:36:22: Vielen herzlichen Dank für Verantwortung.
00:36:25: Soll ich es erklären?
00:36:26: Ja, wenn du unbedingt, also wenn du es erklären willst, sehr gern.
00:36:29: Du musst nicht, aber du darfst.
00:36:31: Ja, also für mich ist das Thema... Verantwortung, das eigentlich, was man ja erreichen möchte, wenn man in der Compliance arbeitet.
00:36:39: Man möchte ja, dass jeder einzelne Mensch sich verantwortungsbewusst verhält.
00:36:43: Und das betrifft eben den Umgang mit KI, verantwortungsvoller Umgang mit KI beim Thema kritischen Denken, genauso wie den Umgang mit Menschen, genauso wie den Umgang mit Risiken, genauso wie den Umgang mit Speak-Up-Kultur.
00:36:57: Das heißt, für mich geht es immer um das Thema Verantwortung übernehmen, sich nicht wegzucken.
00:37:01: Nicht sagen, da kümmert sich schon andere herum, sondern tatsächlich Verantwortung übernehmen und die Position, die man hat, auch verantwortungsvoll ausüben.
00:37:10: Du läufst da bei mir offene Türen ein.
00:37:13: Also, du wusstest es ja nicht und das weiß ja jetzt, es wissen nur ganz wenige Menschen.
00:37:17: Aber ich habe im Springerverlage jetzt an einem Buch mitgeschrieben, mit dem Titel Digitalisierung der Rechtsabteilung.
00:37:22: Und ich habe in Kapitel verfasst, zum Thema Digitalisierung der Compliance-Organisation und habe in das Thema eingeleitet, zu erklären, was Compliance ist.
00:37:31: Also nicht dieses klassische, es ist die Regel treu, sondern was ist eigentlich Compliance?
00:37:35: Also für mich ist ja, was brauche ich in der Compliance?
00:37:37: Was bedeutet Compliance?
00:37:38: Für mich bedeutet Compliance sich ordentlich verhalten.
00:37:41: Da brauche ich in Wahrheit drei Dinge dazu, einen Hausverstand, einen richtig eingenordeten moralischen Kompass.
00:37:47: Ich zähle jetzt nicht auf, was ich alles geschrieben habe, aber meine Erkenntnis zum Schluss ist.
00:37:51: Und darum, also wirklich danke, meine Erkenntnis ist, und das steht genauso im Buch jetzt drinnen, Compliance ist für mich die Pflicht, Verantwortung zu übernehmen.
00:38:00: Also vielen, vielen herzlichen Dank.
00:38:03: Also keine Wunder, dass dieses Gespräch so gelaufen ist, wie es gelaufen ist.
00:38:06: Marie, vielen herzlichen Dank.
00:38:08: schön, dass du da warst.
00:38:09: Danke.
00:38:09: Sehr gerne.
00:38:11: So, meine Lieben, vielen, vielen Dank fürs Zuhören.
00:38:14: Wenn Ihnen die Folge gefallen hat, wenn Ihnen ein Code auf Sie generell gefällt, dann freue ich mich natürlich über eine positive Bewertung auf der von Ihnen genutzten Podcast-Plattform.
00:38:22: Aktivieren Sie bitte die Glocke auf Spotify.
00:38:24: Folgen Sie den Podcast und mir.
00:38:27: Bitte gern auf LinkedIn und auch auf Instagram.
00:38:29: Wenn Sie darüber hinaus Fragen haben zur Software von LUB, dann bitte einfach unter www.lub.at.
00:38:35: Kontakt mit uns aufnehmen.
00:38:37: Unser Versprechen ist immer aus der Praxis für die Praxis.
00:38:39: Die Infos dazu gibt es in den Shownoten.
00:38:42: Und folgen Sie bitte auch dem Diko.
00:38:44: Besuchen Sie die Webseite www.diko-ev.de.
00:38:48: Werden Sie Mitglied und engagieren Sie sich aktiv mit Gleichgesinnten im Thema Compliance.
00:38:53: Und mir bleibt nur, mich zu verabschieden.
00:38:55: Bis zur nächsten Folge.
00:38:57: Bleiben Sie compliant und bleibst vor allem ein guter und verantwortungsbewusster Mensch, Ihr Martin Reich
00:39:15: etc.
Neuer Kommentar