Alle Artikel
9. März 2023 | Thorsten Greiten

KI-Forscher Matthias Thimm: “Wir möchten, dass das Leben einfacher wird.”

Beitrag: KI-Forscher Matthias Thimm: “Wir möchten, dass das Leben einfacher wird.”

Wie verändert KI die Unternehmenskommunikation? Wann werden z.B. Chatbots auf GPT-Basis zum Einsatz kommen? Der KI-Forscher Matthias Thimm über Chancen und Risiken der Künstlichen Intelligenz.

NetFed: Schönen guten Tag Herr Thimm. Herzlichen Dank, dass Sie sich für uns die Zeit genommen haben. Sie sind Professor für Künstliche Intelligenz an der Fernuniversität Hagen. Woran forschen Sie zurzeit?  

Prof. Thimm: Ich bin Theoretiker, das heißt, ich untersuche vor allem formale Grundlagen zur Künstlichen Intelligenz und dort eher symbolische Ansätze. Die KI teilt sich in zwei große Gebiete. Einmal die symbolische Seite und die sogenannte subsymbolische Seite. Die subsymbolische Seite ist eigentlich die Seite, die derzeit - also in den letzten zehn Jahren - die dominante Richtung der KI ist. Das heißt deren Ansätze basieren auf maschinellen Lernmethoden, das sind dann künstliche neuronale Netze und Ähnliches. Die symbolische Seite, in der ich eher verortet bin - die nennt man auch good old fashioned AI - das sind Ansätze, die eher aus der Philosophie und der Logik kommen. Das heißt, wo wir nicht unbedingt versuchen, neuronale Ansätze zu entwickeln, die Intelligenz simulieren, sondern wir versuchen mit logischen Mitteln abzubilden, wie rationales Schlussfolgern funktioniert. Mein Hauptgebiet ist die formale Argumentation. Es ist ein Gebiet, wo es darum geht, Wissen in einer Form zu repräsentieren, sodass man damit argumentativ schließen kann. Zum Beispiel stellen Sie sich vor, Sie haben ein Anwendungsszenario im Medizin-Bereich, Sie haben einen Patienten vor sich sitzen, und Sie haben das gesamte Expertenwissen der Welt auf Ihrem Tablet und Experten haben hierfür Regeln formuliert. Wenn der Patient Symptom A hat, dann folgt daraus mit Wahrscheinlichkeit 0,9, dass er Krankheit X hat. Und dann haben Sie eine ganze Menge von solchen Regeln. Diese Regeln sagen z.B. wenn Krankheit X vorliegt, dann verschreib doch bitte Medikament Y. Es geht darum, wie man nachher mit solchem explizit modellierten Wissen umgeht, d.h. Argumente ableiten kann. Z.B. “Wir sollten dem Patienten aus einem bestimmten Grund Aspirin geben.” Ein Gegenargument wäre: “Der Patient sollte keine Blutverdünner nehmen, deswegen ist Aspirin keine gute Idee” Die Argumente, die man darauf aufbauen kann, würden wir dem Mediziner präsentieren, damit der seine Entscheidung treffen kann.  

Werden Jobs durch KI ersetzt? 

NetFed: Das heißt in diesem Fall würde die KI den Medizinern assistieren. 

Prof. Thimm: Genau. Im Allgemeinen sind wir bei KI immer vorsichtig, wenn es darum geht, Entscheidungen abzunehmen. Eigentlich möchten wir immer nur Entscheidungen unterstützen und eine Wissensgrundlage liefern. Man hat immer in der allgemeinen Öffentlichkeit das Gefühl, die KI übernimmt unsere Jobs. Aber das ist natürlich nicht das, was wir als Wissenschaftler möchten. Wir möchten gerne, dass das Leben einfacher wird und das heißt vor allem in kritischen Bereichen eher Unterstützung liefern. Das unterscheidet auch die Ansätze der symbolischen KI und der subsymbolischen KI. Bei der symbolischen KI sind wir eher an Anwendungsszenarien orientiert, die sicherheitskritischer sind, wo es darum geht, nicht schnell Empfehlungen zu geben. Zum Beispiel ein Bild zu identifizieren, festzustellen, was sich darauf befindet, das ist eine Aufgabe, die normalerweise nicht sehr kritisch ist, aber in vielen Bereichen wie in der Medizin oder im Recht oder bei wirtschaftlichen Fragestellungen, da ist es manchmal wichtiger, nicht einfach nur eine Empfehlung zu geben, was gemacht werden soll, sondern auch wirklich zu begründen, warum das so ist und zu erklären. Und da helfen symbolische Ansätze eher, weil wir explizit Erklärungen konstruieren möchten, warum etwas empfohlen wird, beispielsweise.  

KI-Hype: Wird dieses Jahr das Jahr der künstlichen Intelligenz?

NetFed: Der Fokus der Öffentlichkeit ist durch die Veröffentlichung von ChatGPT durch OpenAI im letzten Jahr erreicht worden. Es gibt einen KI-Hype, alle sprechen darüber. Viele sagen, dieses Jahr wird das Jahr der KI. Empfinden Sie das auch so? Und welche Auswirkungen hat dieser Fokus auf Ihre Arbeit?  

Prof. Thimm: Als KI-Forscher ist man da immer etwas kritisch. Zunächst weil dieser Hype, den wir jetzt gerade erleben, den gibt es nicht zum ersten Mal. In den 60er, 70er Jahren gab es den ersten KI-Hype. Da gab es auch schon die Prognosen, dass es nicht mehr lange dauern würde, bis KIs Musik komponieren können oder auch den Schachweltmeister schlagen können. Oder auch so etwas zu haben wie einen psychologischen Chat-Assistenten; es wurde da schon gesagt, das wird maximal fünf bis zehn Jahre dauern. Den Schachweltmeister haben wir erst 1997 geschlagen. Das hat also nochmal 30 Jahre gedauert, nicht zehn und da hatte man schon einen großen Hype und die KI-Forschung geht in Wellen voran. Es gab die erste große Welle, dann war Ernüchterung, es gab lange Zeit nichts. Dann gab es Anfang der 90er, Ende der 80er eine zweite Welle, wo alle dachten, “Ach jetzt können wir das doch richtig machen mit KI”, und dann ist das doch nichts geworden. Und jetzt haben wir schon seit 2014/15 diese nächste Welle, wo wir uns auch gerade befinden; der Hype um ChatGPT vom letzten Jahr ist eher so eine kleine Welle auf der aktuellen Welle drauf. Erst einmal sollte man als Wissenschaftler also skeptisch sein. Auf jeden Fall ist es aber so, dass die Resultate, die in den letzten knapp zehn Jahren erzielt wurden, insbesondere auch in den letzten zwei Jahren mit diesem neuen Transformer Modell, auf dem auch ChatGPT beruht, schon sehr beeindruckende Ergebnisse liefern. Das ist nicht zu verleugnen, dass das ein beeindruckendes Stück Technik ist und es ist auf jeden Fall nicht das letzte, was passieren wird. Das wird definitiv noch ein bisschen weitergehen. Wenigstens dieses und nächstes Jahr noch. Ich befürchte, dass wir irgendwann an unsere Grenzen stoßen werden mit dieser aktuellen technologischen Welle. Es kann noch zwei bis drei Jahre dauern. Dann wird es wieder ein bisschen Ernüchterung geben. Das wäre meine skeptische Analyse der aktuellen Situation, aber ich glaube bevor wir zum nächsten Abstieg kommen, wird nochmal einiges passieren. OpenAI hat ja auch schon die nächste Version angekündigt und auch andere Technologiefirmen, aber auch im wissenschaftlichen Bereich haben jetzt auch schon Konkurrenten angekündigt und da wird noch einiges aufgesetzt werden.

Wie viel Wahrheit steckt in KI-Anwendungen wie ChatGPT?   

NetFed: Die KIs, die jetzt gerade im breiten Fokus stehen, sind ja vor allem die Sprachmodelle, also sogenannte Large Language Models wie ChatGPT. Der CEO von Open AI hat kürzlich noch davor gewarnt, ChatGPT für wesentliche Anliegen einzusetzen. Und nachdem, was Sie vorhin gesagt haben über Ihr Forschungsfeld, kommt hier die Schnittstelle: “Können KIs wesentliche Entscheidungen treffen?” Sie haben vorhin gesagt, aus Forschungssicht gehe es eher darum, sich unterstützen zu lassen und nicht die KIs autonom agieren zu lassen. Das, was Sam Altman gesagt hat, bezog sich ja vor allen Dingen auf den Umgang von KI mit Wahrheit. Können Sie vielleicht für den Laien beschreiben, wie sich grundsätzlich das Verhältnis von KI zu Wahrheit gestaltet? Oder gibt es das überhaupt?  

Prof. Thimm: Naja, das Problem ist nicht unbedingt ein Problem, was KI-spezifisch ist, sondern das ganz allgemein auftritt, wenn wir einen Agenten haben - egal ob es ein Mensch ist oder eine künstliche Intelligenz – und zwar wenn es darum geht, auf was für ein Wissen er seine Entscheidungen stützt. Ein Lehrer kann ja auch sehr gut sein, hat sehr viele Bücher gelesen, aber wenn irgendwo in einem Buch ein Fehler war, dann hat er das Wissen falsch gelernt und wird es auch falsch weitergeben. Und genau dieselben Probleme haben KIs verstärkt, vor allem diese großen Language Models. Die benutzen sehr viele Daten, die ungefiltert sind. Wenn man sich das gesamte Internet herunterlädt und das als Textkorpus benutzt, um etwas zu lernen, lernt man auch viel Unsinn, weil da viel Unsinn drinsteht. Und dann ist es natürlich auch so, dass das von der KI, z.B. im ChatGPT-Gespräch falsch wiedergegeben wird und er auch selbst keine Introspektive hat, um zu beurteilen, ob etwas wahr ist. Also es ist kein neues Problem mit der KI, es ist wie beim Menschen: die Frage, was ist mit dem Gegenüber? Der muss natürlich kritisch reflektieren, was nimmt er da auf? Stimmt das? Auch in der Schule, in der Uni, wenn man was lernt, sollte man auch immer kritisch reflektieren, was der da vorne sagt. Es kann natürlich immer falsch sein.  

Kann künstliche Intelligenz eigenständig arbeiten?  

NetFed: Ist ein Szenario denkbar, in dem eine KI für wesentliche Anliegen auch autonom eingesetzt werden könnte? Wenn ja, welche Bedingungen müsste dieses Szenario haben?  

Prof. Thimm: Es kommt immer darauf an, was Sie mit KI meinen und wie weit Sie gehen wollen mit dem Begriff der Autonomie. Was man natürlich nicht tun sollte, ist z.B. ChatGPT zu sagen: Schreib mir ein Interview mit Professor Thimm und bring das auf unsere Webseite, ohne sich das vorher einmal durchzulesen. Für alles, was nicht menschlich kontrolliert werden kann, sollte man Systeme wie ChatGPT derzeit nicht verwenden. Wenn man den KI-Begriff etwas erweitert, da fallen auch ganz viele andere Sachen drunter, zum Beispiel ganz einfach Softwareverifikation, also automatische Systeme, die überprüfen, ob ein Stück Code das macht, was man formal spezifiziert hat. Das ist ein konkreter, eingeschränkter Bereich, wo ganz klar ist, was ist formal korrekt, was ist falsch? Dort können KIs genutzt werden und dann werden auch KIs genutzt in der Industrie, um dort etwas zu lösen. Das ist nicht der Begriff von KI, den man normalerweise derzeit unter dem Begriff KI versteht. Aber das sind prinzipiell auch KI-Systeme. Überall da, wo formal etwas als korrekt beschrieben werden kann, dort sind KI-Systeme auch einsetzbar. Es ist immer dann problematisch, wenn es offen ist, was tatsächlich die Wahrheit ist. Insbesondere wenn es darum geht, dass man ChatGPT eine Arbeit schreiben lässt, einen Aufsatz schreiben lässt oder so was. Dann, wenn es auch darum geht, zu extrapolieren und neue Ideen hervorzubringen. Das ist natürlich schwer, da ein formales Kriterium für Wahrheit zu definieren. Da sollte man auf jeden Fall so etwas derzeit nicht benutzen.  

Fabulieren, Rassismus & Co.: Wie kann Sprach-KI reguliert werden? 

NetFed: Das heißt, wenn ich jetzt zum Beispiel an einen Bereich wie Kundenservice denke, ich denke mir ein großes Unternehmen und das Unternehmen benutzt, um sich selbst zu entlasten, einen Chatbot, um Kundenanfragen zu beantworten. Solche Chatbots werden ja bislang schon eingesetzt. Nur die sind ja sehr beschränkt und können nur das sagen, was man zuvor eingegeben hat. Angenommen, ich wollte das jetzt umstellen auf ein Large Language Model zum Beispiel. Wäre es möglich, dieses Modell so stark einzuschränken, dass es gar nicht mehr die Möglichkeit hat zu fabulieren, also Dinge zu verbreiten, von denen ich als Unternehmen nicht möchte, dass es das verbreitet? 

Prof. Thimm: Prinzipiell schon. Das hat man auch mit ChatGPT gemacht. Es gab ja vor einigen Jahren von Microsoft diesen Twitterbot, den man sehr leicht manipulieren konnte, dass er plötzlich rassistisch und sexistisch wurde. Und genau diese Problematik hatte man jetzt bei ChatGPT in den Fokus gesetzt und hat den so trainiert, so darauf geachtet, dass so etwas gar nicht passieren kann. Wenn man mit ChatGPT chattet, der lässt sich gar nicht auf irgendwelche Diskussionen bezüglich extremistischer Meinungen oder kritischer Bereiche ein. Da hat man darauf geachtet und ähnlicher Weise könnte man das dann auch in einem Unternehmen machen, dass man die Grenzen sehr, sehr stark einschränkt. Das ist aber natürlich kein hundertprozentiger Schutz. Ich habe Beispiele gesehen, wo man, wenn man lange mit ChatGPT redet, man ihn doch verleiten kann, irgendetwas relativ Dummes zu sagen. Und das kann natürlich auch in so einem Szenario passieren.  

Welche Risiken bietet KI bei einem breit gefächerten Einsatz? 

NetFed: Abgesehen von diesem “Wahr-Falsch-Problem". Welche weiteren Risiken sehen Sie mit einem breiteren Einsatz von künstlicher Intelligenz in verschiedenen Bereichen?  

Prof. Thimm: Das kann man sich in beliebigen Science-Fiction-Filmen der letzten 40 Jahre anschauen. Da wird eine ganze Reihe von Problematiken aufgelistet. Ich hatte gerade gestern bei uns an der Uni eine Diskussion zum Thema ChatGPT, insbesondere zum Kontext des Einsatzes in der Lehre. Das ist natürlich ein Problem. Als Student kann man sich jetzt überlegen “Schreibe ich diese Seminarausarbeitung selber, oder lasse ich sie schreiben?”. Das ist ein Punkt, wo wir in der Hochschullehre überlegen müssen, wie wir damit umgehen. Insbesondere in Bereichen, die sehr textlastig sind, also eher Sozialwissenschaften, Philosophie, wo auch die Studierendenzahlen sehr hoch sind. Da kann man leicht mit solchen Methoden in der Menge der Studierenden untergehen. Als Student kann man seine Seminar-Hausarbeit von ChatGPT schreiben lassen. Der Prüfer, der muss 500 Hausarbeiten korrigieren, der liest da einmal quer rüber, ist davon überzeugt, dann hat der Student bestanden. Das ist ein Risiko, mit dem wir umgehen müssen, in der Lehre vor allem. Es gibt natürlich auch Potenziale. Solche Systeme können sehr gut genutzt werden, um individualisiertes Lernen zu realisieren, z.B. in Form eines personalisierten Tutors, mit dem man über die Themen reden kann und der Anreize geben kann.  

Machine Learning: Was passiert, wenn eine KI von einer anderen KI lernt? 

NetFed: Wenn KIs jetzt immer mehr Inhalte produzieren, was ja offensichtlich der Fall ist, wie realistisch ist denn das Szenario, dass KIs anfangen, von sich selbst zu lernen und dadurch die Inhalte degenerieren? Also so eine Art KI-Inzest, der passiert ... 

Prof. Thimm: Das wird auf jeden Fall passieren. Automatisch, wenn KIs Inhalte generieren und die Inhalte dann wieder gelernt werden. Ob das problematisch ist, das ist schwer vorherzusehen. Ein wichtiges Paradigma des maschinellen Lernens ist ja auch das sogenannte Reinforcement Learning, wo es darum auch geht, dass KIs sich selber in einer Umgebung einbetten, durch ihre Aktionen lernen, was gut ist. Und dann haben wir auch so eine Art Feedback-Loop. Und es ist eigentlich ein sehr erfolgreiches Paradigma für das maschinelle Lernen. Es kann durchaus sein, dass das auch zu guten Ergebnissen führt, aber das ist dann wirklich auch noch sehr am Rande der Forschung. Es kann auf jeden Fall auch in eine schlechte Richtung gehen, aber vielleicht kann man auch durch ein paar gute Ideen das in eine sehr gute Richtung treiben. Da ist aber noch viel offen.  

Wie wirkt sich künstliche Intelligenz auf den Arbeitsmarkt aus? 

NetFed: Sie haben vorhin selbst kurz das Stichwort Arbeitsmarkt gegeben. Dort gibt es große Befürchtungen. Viele sprechen von großen Umwälzungen, die zu erwarten sind. Teilen Sie diese Auffassung oder wie sehen Sie das?  

Prof. Thimm: Natürlich ist es so, dass viele Berufszweige durch Automatisierung arbeiten. Das ist nicht unbedingt auf die aktuelle Deep-Learning Revolution fokussiert sondern insgesamt auf Automatisierungsmethoden und da ist es so, dass einige Berufszweige auf jeden Fall gefährdet sind. Es ändert sich aber auch die Berufsbeschreibung. Die Dokumentationserstellung beispielsweise, das ist natürlich ein Zweig, wo man mit solchen Modellen reingehen kann und dort automatisch oder semi-automatisch Dokumentationen zu Produkten zu erzeugen. Aber natürlich braucht es am Ende des Tages immer noch einen Menschen, der darüber schaut und die KI anweist, was genau gemacht werden soll. Das heißt, es könnte sein, dass viele solche Berufszweige eher in eine solche Richtung gehen zu KI-Tutoren zu werden. Das sind dann Menschen, die die KI instruieren, was sie tun soll. Im besten Fall macht das das Leben dieser Person einfacher, weil sie nicht die eigentliche Schreibarbeit machen muss, sondern sich überlegen muss, was denn geschrieben werden soll. Aber natürlich werden dort auch einige Berufszweige irgendwann verschwinden. Es ist in der Automatisierung seit zweihundert Jahren so, dass durch sie Berufszweige wegfallen. Aber dafür werden sich auch neue ergeben. 

Wird Explainable AI (erklärbare künstliche Intelligenz) der Trend der Zukunft? 

NetFed: Sie haben vorhin schon kurz beschrieben, was Ihr Forschungsbereich ist, wie wären da die Anknüpfungspunkte zum Beispiel auch an große Sprachmodelle? Wäre ein interdisziplinäres, also innerhalb der Forschung interdisziplinäres Zusammenarbeiten vorstellbar?  

Prof. Thimm: Auf jeden Fall! Eine der größeren Bestrebungen der letzten fünf Jahre ist die sogenannte Explainable AI. Nach Aufschwung dieser Deep Learning Revolution, hat man hat gemerkt, dass der Aspekt der Erklärbarkeit ein wichtiger Punkt ist, den diese Modelle nicht gut abdecken können und die auch Large Language Models nicht abdecken können. Es gibt seit einigen Jahren stetige Bestrebungen, diese beiden Bereiche der symbolischen und der subsymbolischen KI zusammenzubringen, das heißt zum Beispiel formale Argumentationsmodelle, die dazu benutzt werden können, um neuronale Netze zu erklären bzw. die Entscheidungen von neuronalen Netzwerken zu erklären. Ich habe selbst auch eine Reihe von Projekten in diesem Bereich, wo wir uns damit beschäftigen, wie wir genau formale Argumentation benutzen, um maschinelle Lernmodelle um eine Erklärungskomponente zu ergänzen. Da arbeite ich auch mit Personen aus dem maschinellen Lernbereich zusammen. Es ist in interdisziplinären Forschungsprojekten oft schwierig, sich auf die gemeinsame Sprache zu einigen. XAI ist ein Schlagwort, Neuro-Symbolic Reasoning ist ein anderes Schlagwort, das Ähnliche ist die Verknüpfung von neuronalen Netzen mit symbolischen Repräsentationsmethoden. Und das ist eigentlich das größte Ziel, auf wissenschaftlicher Ebene, gerade in der KI, genau diese beiden Bestrebungen zusammenzuführen.  

Welche neuen Entwicklungen im Bereich KI wird es in absehbarer Zukunft geben? 

NetFed: Wenn wir dieses Interview in fünf Jahren noch einmal führen würden, was wird bis dahin geschehen sein? Worüber werden wir uns dann unterhalten?  

Prof. Thimm: Ich würde erst mal sagen, dass fünf Jahre vielleicht derzeit ein bisschen zu weit gegriffen ist. Wir werden auf jeden Fall dieses Jahr, nächstes Jahr noch eine ganze Reihe neuer Entwicklungen sehen. Also vor allem hatte ich ja schon gesagt, OpenAI hat es ja schon angekündigt. Viele andere ziehen nach: Bing, Google, Microsoft auch schon gemeinsam mit OpenAI. Und da wird sich auf jeden Fall in den nächsten ein, zwei Jahren sehr viel tun. Meiner Meinung nach können wir schon nächstes Jahr auf einem Level sein, wenn es um Chatbots geht, dass wir dort sehr, sehr viel sicherer sein können über die Ergebnisse, so dass wir auch halbwegs kritische Aspekte, vielleicht sogar solche Aspekte wie Suizidprävention oder andere psychologische Diskussionen dort auch realisieren können. Grafikgenerierung ist ja auch etwas, was letztes Jahr sehr beeindruckend vorankam. Da wird es noch ein paar weitere Sachen geben. Da glaube ich, kommen wir jetzt schon sehr schnell zu neuen Errungenschaften, wo ich nicht absehen kann, was in fünf Jahren passieren wird. In anderen Bereichen wird es etwas langsamer gehen. Autonomes Fahren ist beispielsweise so ein Aspekt, wo die KI-Forschung sehr viel sich rumtreibt, der allerdings vergleichsweise schleppend vorangeht. Das wird noch mindestens zehn Jahre dauern, bis wir realistisch autonomes Fahren auf deutschen Straßen haben werden. Da ist alles viel offener als zum Beispiel in einem Dialogverlauf mit einem Chatbot. Das ist noch mal weitaus komplexer. Und da werden wir jetzt in fünf Jahren vielleicht so weit sein, dass autonomes Fahren beispielsweise auf Autobahnen in Deutschland vielleicht nicht üblich ist, aber auch nicht absolut unnormal.  

KI-Instructor als neuer Job? 

NetFed: Wann, glauben Sie, wird die erste Stellenanzeige KI-Instructor oder KI-Commander online gehen?  

Prof. Thimm: Ich glaube nicht, dass es so genannt werden wird, prinzipiell ist die Frage, was man wirklich KI nennt. Rechtschreibkorrektur und Grammatikempfehlungen in Microsoft Word - vor zehn Jahren, vor 20 Jahren waren das KI-Technologien. Heutzutage ist es etwas vollkommen Normales. Und wenn man eine Rechtschreibprüfung in Word benutzt, wird einem niemand Plagiarismus vorwerfen, weil es eine normale KI-Methode ist. In drei, vier Jahren wird Microsoft Word dann auch eine ChatGPT-Funktionalität haben, wo stilistische Änderungen automatisiert vorgeschlagen werden. Und dann würde man jemanden, den man einstellt, um beispielsweise Artikel oder Dokumentationen zu schreiben, nicht KI-Instructor nennen. Aber man würde voraussetzen, dass der Erfahrungen hat im Umgang mit Word, mit der aktuellen Version, wo so eine Komponente drin ist, und das wird einfach fließend passieren. Und prinzipiell ist das schon so, weil in vielen Stellenanzeigen gesagt wird, man muss Word können, also muss man auch mit der Rechtschreibkorrektur etwas anfangen können, was prinzipiell eine KI-Technologie ist.  

Ist die Angst vor künstlicher Intelligenz berechtigt? 

NetFed: Letzte Frage: Was können Sie Menschen sagen, die Angst haben, die beunruhigt sind, die Befürchtungen haben? Haben Sie etwas zu Beruhigung? Ich denke jetzt in der Kategorie Science-Fiction-Film, also dieser Kampf der KI gegen den Menschen und der Mensch, der davon überwältigt wird, nichts mehr zu tun hat, keine Arbeit mehr findet oder alternativ von KI versklavt wird.  

Prof. Thimm: Da gibt es ja auch Abstufungen. Wenn wir jetzt das Terminator-Szenario nehmen, da braucht man auf keinen Fall Angst zu haben, dass das irgendwann passiert. Prinzipiell was KIs sind, auch große Language Models, sind nichts anderes als eine riesengroße Excel-Tabelle, wo komplizierte Formeln drinstehen. Die Zellen werden miteinander verknüpft und es ist am Ende des Tages. nichts Magisches, sondern einfach nur eine riesengroße Tabelle und die wird kein Bewusstsein entwickeln. Es sind natürlich auch philosophische Fragestellungen “Was ist Bewusstsein, was ist nicht Bewusstsein?” Aber auf die möchte ich mich jetzt nicht einlassen. Aber dass jetzt irgendwann eine Formel aus einer Excel-Tabelle ausbricht und die Menschen versklavt, das sieht man als absolut unsinnig an. Und genauso ist es mit KIs. Es ist ein Stück Software, die irgendwas macht. Da kann man keine Angst haben, dass die uns versklavt. Dass sie uns Jobs abnehmen, bzw. Jobs leichter machen, vielleicht uns keine volle Produktion abnehmen, aber eine halbe, das ist ein durchaus realistisches Szenario. Wie man sich dagegen schützen kann, ist halt auf dem aktuellen Technologielevel zu bleiben. Man kann sich jetzt nicht zurücklehnen und sagen “Ach, ich habe vor 20 Jahren Excel gelernt und auf dem Stand bleib ich jetzt.” Man muss natürlich mit der Technologie mitgehen und mit diesen KIs umgehen und dann wird man auch mit seinem Job sicher sein.  

NetFed: Vielen Dank für das Gespräch.  

Das Interview führte Sarah Nellen

 

Das könnte Sie auch interessieren

Unsere Autoren

  • CEO
    Christian Berens
    Christian Berens
    Expertise:
    Business Administration, Corporate Communications & Digital Communications.
    Herzblut:
    Positive Unternehmenskultur & Haltung
  • CFO
    Thorsten Greiten
    Thorsten Greiten
    Expertise:
    Business Administration, Digital Communications, Investor Relations & Financial Communication.
    Herzblut:
    Digitale Transformation & New Technologies
  • Managing Director
    Edin Rekić
    Edin Rekić
    Expertise:
    Business Administration, Business- und Marketingstrategie & Digital Communications.
    Herzblut:
    Beratung & Prozessbegleitung
  • Das NetFed-Team
    NetZwerg
    NetZwerg
    Expertise:
    Webanalyse, Beratung, Prozessbegleitung, Kommunikationsstrategie, Contentstrategie, Contenterstellung, Design, IT, Technologie, Support, Datenschutz, Sicherheit, CO2-Optimierung, Barrierefreiheit …
    Herzblut:
    Digitale Erlebbarkeit von Kommunikation
Bild: nf-person-christian

Haben wir Sie inspirieren können? 

Lassen Sie uns miteinander sprechen. Wir finden für Sie die ideale Lösung. 

Christian Berens