Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können
Alles überall auf einmal (2024) taucht in die Welt der Künstlichen Intelligenz ein und beleuchtet, wie diese Technologie unsere Kommunikation und das Verständnis von Realität verändert. Wir erkunden die Chancen und Herausforderungen, die KI für die Gesellschaft darstellt, von der Erzeugung täuschend echter Fake-Inhalte bis hin zu ethischen Fragen rund um Vorurteile und Manipulation.
About the author
Miriam Meckel lehrt und forscht an der Universität St. Gallen. Als Gastprofessorin war sie auch an den international renommierten Universitäten in Harvard, Singapur, New York und Wien tätig. 2010 schrieb sie den Bestseller Brief an mein Leben.
Léa Steinacker promovierte an der Universität St. Gallen zum Thema soziale Auswirkungen von KI. 2018 wurde sie vom Medium Magazin als eine der „Top 30 bis 30“-Journalistinnen ausgezeichnet. Das Forbes-Magazin nahm sie in seine Liste der "Top 30 Under 30" in der europäischen Medienbranche auf.
Was drin ist für dich: KI und ihre Auswirkungen auf unser Leben verstehen.
Hast du dich jemals gefragt, wie es ist, mit einer KI zu plaudern, die menschlicher wirkt als so mancher Mensch? Wir nehmen dich mit auf eine Entdeckungsreise in die Welt der Künstlichen Intelligenz, in der Sprachmodelle wie ChatGPT die Art und Weise unserer Kommunikation revolutionieren. Wir zeigen dir, wie diese Technologien funktionieren, und nehmen darüber hinaus das große Ganze in den Blick: Wie sähe eine Welt aus, in der KI nicht nur unsere Sprache übernimmt, sondern auch unsere Politik?
Doch bei all dem Fortschritt stellen wir auch die kritischen Fragen: Was bedeutet es für unsere Zukunft, wenn die Maschinen uns immer ähnlicher werden? Und können wir noch unterscheiden, was echt ist und was nicht? Wir beschäftigten uns mit Deepfakes, erkunden die Schattenseiten der KI und suchen nach Wegen, wie wir diese mächtigen Werkzeuge verantwortungsvoll nutzen können. Mach dich bereit für eine Reise, die dir neue Perspektiven auf die Künstliche Intelligenz eröffnen wird.
Die KI imitiert das menschliche Sprechen auf Grundlage von Wahrscheinlichkeiten.
In den letzten Jahren haben sich sogenannte „große Sprachmodelle“ wie ChatGPT zu einem bahnbrechenden Durchbruch in der generativen KI entwickelt. Diese neuronalen Netzwerke bestehen aus Milliarden von Parametern und vielen verknüpften Schichten, die gleichzeitig Informationen verarbeiten und immer detailliertere Ableitungen treffen können.
Diese riesigen Sprachmodelle wie ChatGPT bestehen aus vielen miteinander verbundenen Schichten, vergleichbar mit den Stockwerken eines Bürogebäudes. ChatGPT-4 hat 96 solcher Schichten.
Auf jeder dieser Schichten finden unzählige Berechnungen mit gewaltigen Datenmengen statt. Die Gesamtzahl dieser „Rechenknoten“ oder Parameter, mit denen ChatGPT trainiert wurde, beläuft sich auf 175 Milliarden.
Um diese gewaltige Zahl besser zu verstehen, kannst du dir die 175 Milliarden Parameter auch als Fragen vorstellen: Auf jedem der 96 Stockwerke sitzen 100 Menschen, die an der Beantwortung von 175 Milliarden Fragen arbeiten. Also 9600 Menschen für 175 Milliarden Fragen.
Laut den Berechnungen von ChatGPT selbst würde es mit diesen 9.600 Menschen über 152 Jahre dauern, alle 175 Milliarden Fragen vollständig zu beantworten – wenn man Wochenenden, Feiertage und die übliche Arbeitszeit von 8 Stunden pro Tag berücksichtigt.
Aber die KI schafft das eben in viel, viel kürzerer Zeit. Diese gewaltige Rechenleistung und der Umfang der Trainingsdaten verleihen den KI-Modellen ihre beeindruckenden Fähigkeiten. Aber eben auch ihre Limitationen: Denn ChatGPT und seine Verwandten generieren ihre Ausgaben nicht basierend auf tatsächlichem Verständnis oder Intelligenz.
Stattdessen berechnen sie anhand ihrer Trainingsdaten aus Milliarden von Textbeispielen lediglich die statistischen Wahrscheinlichkeiten, welche Wörter im gegebenen Kontext am häufigsten aufeinanderfolgen.
Vereinfacht gesagt: Wenn in den Trainingsdaten Millionen Mal der Satz „Ich trinke gerne Kaffee mit Milch“ vorkommt, errechnet das Modell, dass auf die Wortfolge „Ich trinke gerne Kaffee mit“ mit höchster Wahrscheinlichkeit das Wort „Milch“ folgen muss.
Die Ausgaben der KI sind also im Grunde eine Abschätzung der wahrscheinlichsten Wortkombinationen. Die Modelle haben keine Konzepte von abstrakten Dingen wie Liebe, Kreativität oder Identität. Sie können lediglich sehr überzeugend so klingen, als hätten sie das.
Die Fähigkeit, Mensch und Maschine unterscheiden zu können, stellt eine gewaltige Herausforderung dar. Wir müssen lernen, diese erstaunlichen, aber auch begrenzten Werkzeuge so zu nutzen, dass sie den Menschen unterstützen und voranbringen, ohne dass wir unsere Identität als kreative, fühlende Wesen verlieren.
Deepfakes und Halluzinationen machen es für uns immer schwerer, die Realität von Illusionen zu unterscheiden.
Mit KI-Tools wie ChatGPT und DALL-E ist es heute ein Kinderspiel, täuschend echt wirkende Fake-Inhalte zu erstellen. Denk etwa an das Bild, das Angela Merkel und Barack Obama tanzend am Strand zeigt. Oder das vermeintliche Foto des Papstes, der in einer wallenden Regenbogenhose spazieren geht. Solche Deepfakes haben Überzeugungskraft, da wir mit echten Fotos als Beweis aufgewachsen sind.
Die Gefahren sind real: Solche gefälschten Medien werden für gezielte Desinformation und Rufschädigung missbraucht. 2019 tauchte beispielsweise ein Video auf, das den pensionierten US-Präsidenten Richard Nixon zeigte, wie er die gescheiterte Mondlandung 1969 verkündet. Ein reines Produkt aus KI-Werkzeugen.
Doch nicht nur Text und Bild können manipuliert werden. Mit Tools wie Lyrebird können auch Stimmen nachgeahmt werden. So erhielt 2019 ein leitender Angestellter einen Anruf mit der vermeintlichen Stimme seines Chefs, der ihn aufforderte, 240.000 Dollar auf ein fragwürdiges Konto zu überweisen.
Die Risiken sind vielfältig: Von bizarren Verschwörungstheorien, die mit KI verbreitet werden, bis hin zu politischer Desinformation. Eine weitere Gefahr sind die sogenannten Halluzinationen der KI-Systeme. Das bedeutet, dass die Systeme komplett falsche Informationen oder Fakten ausgeben, die nirgendwo belegt sind.
Solche Halluzinationen können verschiedene Ursachen haben: Zum einen liegt es am Trainingsmaterial der KI-Modelle. Das stammt aus dem Internet, und dort finden sich natürlich auch jede Menge Fehlinformationen, Gerüchte und Falschbehauptungen. Die KI lernt diese Inhalte und gibt sie als vermeintliche Fakten wieder aus.
Eine weitere Ursache sind die eingebauten Sicherheitsmechanismen der KI-Systeme. Um keine anstößigen oder illegalen Inhalte auszugeben, weichen sie oft auf ausweichende oder erfundene Antworten aus, statt einfach nichts zu sagen.
Das grundsätzliche Problem besteht darin, dass die Modelle, anders als wir Menschen, eben kein Verständnis der Inhalte haben, sondern nur statistische Muster lernen. Kontexte, Deutungen und logische Widersprüche erkennen die Modelle noch nicht zuverlässig.
Um Manipulationen entgegenzuwirken, müssen Medien klare Regeln für den transparenten Einsatz von KI definieren. Die Financial Times etwa will weiterhin auf rein menschliche Recherche setzen, KI aber als Unterstützung für Datenanalyse und Bildbearbeitung nutzen, stets mit Hinweis für den Leser.
Letztlich liegt es an uns allen, wachsam zu bleiben. Denn Fehlinformationen und Halluzinationen aus KI sind bereits Realität, sei es durch fehlerhaftes Training oder gezielte Manipulation. Kritisches Hinterfragen und die Suche nach belastbaren Quellen werden im KI-Zeitalter wichtiger denn je.
KI und Politik: eine heikle Mischung
Vor der Bürgermeisterwahl in Toronto tauchten Bilder auf, die die Stadt voller Obdachloser zeigten. Doch in Wirklichkeit gab es gar kein solches Problem. Ein Kandidat wollte die Wähler lediglich dazu bringen, für mehr Sicherheit zu stimmen. Willkommen in der Welt der KI-generierten Inhalte für politische Zwecke.
Selbst Tech-Größen wie Sam Altman von OpenAI und Eric Schmidt, der frühere CEO von Google, äußern sich besorgt über die Auswirkungen von KI auf Wahlen. Denn falsche Inhalte können sich wie ein Lauffeuer verbreiten und ganze Gesellschaften polarisieren.
Die großen Tech-Firmen wie Google, Microsoft und Meta haben sich daher 2023 zusammengetan. Sie verpflichteten sich zur Entwicklung von Wasserzeichen und anderen Mechanismen, mit denen KI-generierte Inhalte für Nutzer erkennbar werden sollen. Ein erster Schritt, der aber das Grundproblem nicht löst.
Denn in einer Welt der ständigen Fehlinformationen und Manipulation wird die Wahrheit insgesamt unter Generalverdacht gestellt. Wir verlieren zunehmend den Bezug dazu, was real und was manipuliert ist. Dies könnte zu einer „Realitätsapathie“ führen: Wenn Menschen nicht mehr klar unterscheiden können, was wahr oder manipuliert ist, kann eine Gleichgültigkeit oder Apathie gegenüber der Realität eintreten. Mit der Folge, dass sie es einfach aufgeben zu versuchen, Fakten von Fiktionen zu trennen. Und das bringt demokratische Gesellschaften in Gefahr.
Denn eine funktionierende Demokratie basiert darauf, dass Bürger auf Basis von verlässlichen Informationen fundierte Entscheidungen treffen können. Wenn diese Informationsgrundlage durch Manipulation und Fälschungen untergraben wird, wird es für Bürger sehr schwierig, informierte Entscheidungen zu treffen.
KI-Technologien sind aber nicht nur eine Gefahr für Demokratien, sondern auch eine Chance. Dann nämlich, wenn wir Wege finden, die Potenziale der KI gemeinschaftlich und im Sinne des Gemeinwohls zu nutzen. Das geht allerdings nur, wenn wir unsere politischen und gesellschaftlichen Entscheidungen nicht komplett an die KI abgeben. Warum?
Erstens können KI-Systeme nicht automatisch menschliche Werte und Ethik berücksichtigen. Politische Entscheidungen erfordern oft komplexe Abwägungen zwischen verschiedenen Interessen und Werten, die nicht allein auf algorithmischen Berechnungen basieren können.
Zweitens würde eine vollständige Delegation politischer Entscheidungen an KI die menschliche Verantwortlichkeit und Rechenschaftspflicht untergraben. Es wäre schwierig, Verantwortliche zu identifizieren oder zur Rechenschaft zu ziehen, wenn etwas schiefläuft. Und diese Möglichkeit ist essenziell für das Vertrauen der Menschen in demokratische Systeme. Und ohne grundsätzliches Vertrauen gerät jede Demokratie ins Wanken.
Und drittens profitieren politische Entscheidungen von einer Vielfalt an Perspektiven, die KI allein möglicherweise nicht abbilden kann. Menschliche Erfahrungen, Emotionen und kulturelle Einflüsse spielen eine wichtige Rolle und sollten in den Entscheidungsprozess einbezogen werden.
Das schauen wir uns jetzt noch einmal genauer an.
Künstliche Intelligenz übernimmt und verstärkt die Vorurteile aus ihren Trainingsdaten.
In einer Welt, die zunehmend von KI durchdrungen ist, offenbart sich eine ethische Dimension, die uns alle betrifft: das Spiegelbild unserer Gesellschaft in den Algorithmen. KI-Systeme, von Bildgeneratoren bis zu Sprachmodellen, spiegeln die Vorurteile und Diskriminierungen wider, die in den Daten verankert sind, mit denen sie gefüttert werden.
Beispielsweise zeigte eine Anfrage an ein Bildgenerierungstool, dass die Vorstellung von einem erfolgreichen Arzt stereotypisch als weißer Mann visualisiert wird. Ähnliche Tendenzen zeigen sich bei der Assoziation bestimmter Berufe oder Merkmale mit Geschlecht und Hautfarbe.
Die Wurzel des Problems liegt in den Trainingsdaten: Sie sind oft verzerrt und repräsentieren nicht die Vielfalt der menschlichen Realität. Das führt zu einer verzerrten Wahrnehmung durch die KI, wie das Beispiel der afroamerikanischen Informatikerin Joy Buolamwini verdeutlicht, deren Gesicht von einer Gesichtserkennungssoftware nicht erkannt wurde – ein Beispiel für den „algorithmischen Bias“, der tief in den Datenstrukturen verwurzelt ist.
Diese Verzerrungen sind nicht neu. Schon in den 1990er-Jahren wurde auf die Konsequenzen von Bias in Computersystemen hingewiesen. Die aktuellen Beispiele aus verschiedenen Anwendungsbereichen der KI, von der Gesichtserkennung bis zur Textgenerierung, zeigen, dass die Herausforderungen geblieben sind. Sie illustrieren, wie KI unsere Vorurteile und Stereotypen nicht nur widerspiegelt, sondern auch verstärken kann.
Daraus folgt, dass die Trainingsdaten für KI-Systeme verbessert werden müssen: Es braucht eine größere Vielfalt der Daten sowie Mechanismen zur Identifizierung und Korrektur von Vorurteilen. Doch das reicht nicht aus. Die Entwicklung und der Einsatz von KI erfordern eine gesellschaftliche Debatte und eine ethische Reflexion, die alle Akteure einbezieht – von Wissenschaftlern über Entwickler bis hin zu Nutzern: Wir müssen uns stets darüber im Klaren sein, dass die KI keine eigenen Werte hat, sondern diese eben nur anhand von Trainingsdaten simuliert.
KI kann also existierende Ungleichheiten verstärken. Die Verantwortung, die damit einhergeht, erfordert ein gemeinsames Bestreben, die Systeme so zu gestalten, dass sie die Vielfalt und die Werte unserer Gesellschaft fair repräsentieren. Damit die KI-Entwicklung nicht zur Dystopie wird, muss der technologische Fortschritt auch einen ethischen Fortschritt bedeuten.
Die Zukunft mit Künstlicher Intelligenz kann in zwei gegensätzliche Richtungen führen.
Manche fragen sich heute ängstlich: Wo soll das alles nur hinführen?
In der ersten Welt, dem dystopischen Szenario, haben wir Pierre, einen Mann, der am Ende seiner Kräfte ist. Die Welt um ihn herum ist ein Chaos, beherrscht von dem übermächtigen KI-Kartell Silicon Scientology. Dieses Kartell, angeführt von einem gigantischen Sprachmodell, hat die Kontrolle über alles.
Die Menschheit hat sich mit ihrer eigenen Erfindung selbst in die Ecke gedrängt. Was real ist und was nur eine Illusion, kann Pierre längst nicht mehr feststellen. Er und einige Mitstreiter haben deshalb jegliches Vertrauen in die KI-Regierung verloren. Pierre sieht keinen anderen Ausweg, als zu versuchen, die KI zu zerstören. Doch wie soll ihm das gelingen? Schließlich weiß er nicht mal, ob seine Mitstreiter wirklich Menschen sind. Vielleicht sind sie nur humanoide Roboter, die Pierre in Wirklichkeit davon abhalten sollten, die KI anzugreifen.
Springen wir jetzt in eine zweite, hoffnungsvollere Welt. Hier treffen wir Leila. Leila hat lange unter furchtbaren Schmerzen gelitten, die kein Arzt erklären konnte. Nach einer Odyssee durch das medizinische System gab ihre Mutter in ihrer Verzweiflung eine detaillierte Beschreibung von Leilas Symptomen in eine KI-gestützte Diagnostik-Plattform ein.
Die KI identifizierte schnell die Ursache ihrer Schmerzen als „Tethered Cord Syndrom“. Diese Diagnose offenbarte, dass Leilas Rückenmark mit dem umliegenden Gewebe verwachsen war, was die höllischen Nervenschmerzen verursachte. Dank dieser präzisen Diagnose durch die KI konnte Leila behandelt werden, was ihre Schmerzen beendete und ihr Leben deutlich verbesserte.
Außerdem hat sie Maude. Das ist ihr Life-Agent, eine KI, die das Leben einfacher und angenehmer macht. Maude organisiert Leilas Tag, kümmert sich um ihren Hund und hilft ihr, die beste Version ihres Lebens zu leben. Das ist für Leila auch deshalb möglich, weil sie wie alle Menschen weniger arbeiten muss.
Eine klug eingesetzte KI übernimmt nämlich den Großteil der Arbeit. Gleichzeitig sorgt ein intelligenter Wirtschaftsalgorithmus für ein komfortables Grundeinkommen. Und wer trotzdem arbeiten will, kann das natürlich tun. Die KI-Systeme funktionieren so, dass die unterschiedlichen Bedürfnisse der Menschen gestillt werden.
Diese zwei Szenarien stehen in starkem Kontrast zueinander und zeigen die Bandbreite der Möglichkeiten, die Künstliche Intelligenz bietet. Einerseits die Gefahr der Entfremdung und des Verlusts unserer menschlichen Essenz, andererseits das Versprechen eines Lebens in Wohlstand und Harmonie mit der Technik.
Welches dieser Szenarien wahrscheinlicher ist, entscheidet sich schon heute
Fazit
KI revolutioniert unsere Kommunikation mit Sprachmodellen wie ChatGPT. Diese Modelle nutzen Milliarden von Parametern, um die wahrscheinlichsten Wortfolgen in einem gegebenen Kontext zu berechnen. Das ist aber auch alles: Sie haben keine tiefgreifenden Konzepte von Liebe, Kreativität oder Identität, sondern imitieren menschliche Sprache auf immer überzeugendere Weise. Echte von künstlich erzeugten Inhalten zu unterscheiden, wird eine der großen Herausforderungen der Zukunft sein.
Denn die Erstellung täuschend echter Fake-Inhalte ist ein großes Risiko von KI-Technologien. Diese können von Desinformation bis hin zu politischer Manipulation reichen, was transparente Regeln für den Einsatz von KI in den Medien notwendig macht.
Backoffice-Bearbeitung: Nadja Mondy
Zieh' dir "Leben in Fülle" - Amatas Newsletter - in dein Postfach.
Trag dich ein, und lass dich begeistern.
Möchtest Du auch online Dein Einkommen steigern und
Dir ein erfülltes und finanziell freies Leben aufbauen?