Zitat Autor
Wirtschaftskraft ist in der Tat ein „Plus“ – ein Mehr an Themen, an Hintergründen und an Aktualität. Mit dieser Plattform wird die wirtschaftliche Kompetenz des Standortes Pforzheim medial begleitet und weit in die Region getragen.

Oliver Reitz

Direktor des Eigenbetriebs Wirtschaft und Stadtmarketing Pforzheim (WSP)

Newsletter Anmeldung

+ monatliche Erscheinung
+ aktuelle Themen und wichtige Termine
+ neue Unternehmensportraits und Unternehmensprofile
Datenverarbeitungshinweis*

Hat ChatGPT Folgen für unsere Gesellschaft?

Der Abkürzung ChatGPT steht für „Chat Generative Pre-trained Transformer“ der Firma OpenAI. Diese startete bereits 2015 als Stiftung. Namhafte Unternehmen, unter anderem auch Elon Musk, investierten Geld, um eine Künstliche Intelligenz zu entwickeln, die laut Satzung „der gesamten Menschheit nutzt“. Musk schied bereits 2018 wieder aus, weil seine Firma Tesla eine eigene Künstliche Intelligenz entwickelte. Nachdem Rechenkapazitäten und die Kosten der Programmierer und Spezialisten das Kapital der Stiftung aufgebraucht hatten, wurde die Firma gewinnorientiert ausgerichtet. Investoren wie Microsoft und LinkedIn-Gründer Reid Hofman kamen hinzu.

09.05.2023

von Edgar Huber

Das Unternehmen wird heute von Gründer Reid Hofmann geführt, besitzt aber nach wie vor Stiftungsstrukturen. Microsoft besitzt laut US-Medien heute 49 % Anteile. Die anderen Anteile verteilen sich auf verschiedene Investoren und die Stiftung selbst. Es wird mit ca. 30 Milliarden US-Dollar bewertet und ist damit weltweit eines der wertvollsten Start-ups.

Wie funktioniert die KI in ChatGPT

ChatGPT versteht ausformulierte Anfragen und beantwortet diese in ebenfalls ausformulierten mehr oder weniger langen Texten. Es sind auch Ausgaben in Gedichtform möglich. Das System kann sogar programmieren. Der Zugang zur Version 3.5 ist frei. Gegen eine monatliche Gebühr steht die Version 4.0 zur Verfügung, das Anfragen noch präziser beantworten soll. Basis ist das Sprachmodell GPT, das mit Daten aus einem Large Language Model (LLM), mit 175 Milliarden unterschiedlichen Parametern und 300 Milliarden Textbestandteilen versorgt wird und mithilfe Künstlicher Intelligenz auf die Verarbeitung von Sprachdaten trainiert wurde. Die Ausgabe erfolgt in der Sprache, in der die Anfrage gestellt wurde.

ChatGPT sorgt seit seiner Veröffentlichung für Furore. Ist die Gesellschaft aber wirklich schon reif genug für solche Technologien?

Aber welche Auswirkungen auf die Gesellschaft hat so eine KI, die selbständig Aufgaben erledigt und Antworten liefert, ohne dass ein menschliches Zutun notwendig ist?

Dr. Steffen Albrecht. Foto:

Dr. Steffen Albrecht vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT: „Die Gesellschaft muss sich klarmachen, auf was sie sich mit ChatGPT einlässt.“

„Es ist sinnvoll, jetzt eine breite Debatte darüber zu führen, wie wir mit KI-Systemen umgehen wollen“, betont Dr. Steffen Albrecht vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT. Albrecht ist Autor der jetzt veröffentlichten Studie ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen.

„Die Gesellschaft“, so Albrecht, „muss sich klarmachen, auf was sie sich da einlässt und welche Regeln wir vereinbaren wollen. Das System birgt ebenso zahlreiche Chancen wie Risiken. Unsere Studie liefert ein Nebeneinander von Pro und Contra, das lässt sich im Moment noch nicht vermeiden. Für eine klare Bewertung ist es derzeit noch zu früh.“

Für Chatbots derartiger Potenz ergeben sich laut Albrecht eine Reihe plausibler Einsatzmöglichkeiten: „Viele menschliche Tätigkeiten, die mit der Verarbeitung von Texten verbunden sind, lassen sich nun zumindest teilweise automatisieren. Weitere Perspektiven ergeben sich durch die multimodale Ausdehnung auf Bilder und Töne.“ Solche Entlastungs- beziehungsweise Rationalisierungseffekte betreffen künftig nicht nur Bereiche wie Journalismus, Unternehmenskommunikation oder Dialoge mit Kundinnen und Kunden, sondern auch Tätigkeiten wie Programmierung und Rechtsberatung, die bisher nicht betroffen waren.

„Da die KI-Systeme in natürlicher Sprache angesprochen werden können, könnten sie, wo erforderlich, zugleich als leicht bedienbare Schnittstelle für andere Computersysteme genutzt werden.“ Positive Effekte könnten sich Albrecht zufolge auch für die Inklusion behinderter Menschen ergeben: „Noch immer sind erst wenige Texte in leichte Sprache übersetzt, hier könnte künftig ChatGPT einen Beitrag leisten.“

Allem medialen Wirbel zum Trotz sollte die öffentliche Debatte über Computermodelle wie ChatGPT auch deren Grenzen und Risiken einbeziehen. „Der Output von Computermodellen kann nur so gut sein wie das, was sie an Input erhalten haben. Ein in den Trainingsdaten enthaltener Bias, also eine verzerrte Repräsentation bestimmter Kategorien, kann sich in den Antworten des Systems widerspiegeln und Diskriminierung verstärken“, sagt Albrecht. Zudem sind die vom System erzeugten Informationen häufig schlicht falsch: „Aufgrund der hohen sprachlichen Qualität und in Ermangelung von Belegen lässt sich die Korrektheit jedoch nur schwer überprüfen, wodurch das Vertrauen in die Verlässlichkeit von Informationen im Allgemeinen sinken kann. Eine verantwortliche Anwendung von ChatGPT sollte sich auf solche Gebiete beschränken, in denen die Nutzenden die Qualität der Ergebnisse beurteilen können beziehungsweise die faktische Richtigkeit weniger bedeutsam ist“, resümiert der Karlsruher Forscher. Daneben diskutiert die Studie konkrete Risiken wie eine Zunahme als solcher nicht erkennbarer computergenerierter Texte in privater und öffentlicher Kommunikation, effektivere Angriffe auf die Computersicherheit oder größere Mengen bewusst schädigend eingesetzter Texte, die das Vertrauen in den öffentlichen Diskurs beziehungsweise die demokratische Meinungsbildung untergraben.

Einen Schwerpunkt legt die Technikfolgen-Studie des TAB auf die Bereiche Bildung und Forschung. Den Hoffnungen von Lehrkräften auf Entlastung von Routineaufgaben und auf eine Erweiterung didaktischer Möglichkeiten stehen dem Papier zufolge Befürchtungen eines Verlusts von Bildungskompetenzen, missbräuchlicher Verwendungen in Prüfungen sowie Datenschutzbedenken gegenüber.

„Ich kann mir gut vorstellen“, so Albrecht, „dass Schulkinder und Studierende künftig nicht mehr nur einen fertigen Text abgeben, sondern dass sie sich schon viel früher mit ihren Lehrkräften darüber auch austauschen. Etwa über die Entwicklung einer Fragestellung, über die Suche nach Quellen oder den Aufbau einer Argumentation. Gerade im Umgang mit Quellen kann ein KI-System wie ChatGPT nur sehr bedingt helfen.“

In der Wissenschaft könnten Programme wie ChatGPT die Zahl der Betrugsfälle steigen lassen: „Schon heute herrscht ein hoher Druck, möglichst viel zu publizieren. Es ist also leicht vorstellbar, dass sich Forschende dazu verleiten lassen, ein KI-System ihre Studien schreiben zu lassen. Gleichzeitig deutet sich aber an, dass das System beim wissenschaftlichen Schreiben auch hilfreich sein könnte, zum Beispiel wenn es darum geht, die relevante Literatur zusammenzufassen oder in einer anderen als der Muttersprache zu publizieren“, stellt Albrecht fest.

Jetzt Newsletter abonnieren und von vielen Vorteilen profitieren!