Wird künstliche Intelligenz die Medien töten oder retten?

Artificial_intelligence_kill_save_media

Informationssuche, Inhaltserstellung, Übersetzung, Erkennung von Hassreden ...Intelligenz (generative KI) verspricht erhebliche Produktivitätssteigerungen in der Welt der Medien.

Die Medien begleiten uns täglich und sind eine Stütze der Demokratie: Sie haben die Freiheit, unterschiedliche Standpunkte und Ideen zu vertreten, Korruption und Diskriminierung anzuprangern, aber auch sozialen und kulturellen Zusammenhalt zu zeigen.

Während sich die Öffentlichkeit für Informationen, Kultur und Unterhaltung an die Medien wendet, können sich die Medien den wirtschaftlichen Belangen und der Rentabilität einer Branche, gemessen an Publikum und Umsatz, nicht entziehen. In diesem Zusammenhang bringt generative KI leistungsstarke neue Werkzeuge mit sich und wird immer häufiger eingesetzt.

Es ist jedoch wichtig, sich daran zu erinnern, dass generative KIs keine Ideen haben und dass sie Kommentare wiederholen, die auf ebenso interessante wie absurde Weise arrangiert werden können (wir sprechen dann von „Halluzinationen“ von KI-Systemen). Diese generativen KIs wissen nicht, was möglich oder unmöglich, wahr oder falsch, moralisch oder unmoralisch ist.

Daher muss der Beruf des Journalisten weiterhin von zentraler Bedeutung für die Untersuchung und Auseinandersetzung mit komplexen sozialen und geopolitischen Situationen sein. Wie können Medienunternehmen also KI-Tools nutzen und gleichzeitig ihre Fallstricke vermeiden?

Das National Pilot Committee for Digital Ethics (CNPEN) veröffentlichte im Juli einen Bericht generelle Meinung zu den ethischen Fragen der generativen KI, die ich mitkoordiniert habe, an den für den digitalen Wandel zuständigen Minister. Insbesondere wird auf die Risiken dieser Systeme hingewiesen.

Leistungsstarke Tools für Journalisten

Die Medien können KI nutzen, um die Qualität von Informationen zu verbessern, Fake News zu bekämpfen, Belästigungen und Aufstachelung zum Hass zu erkennen, aber auch, weil sie dazu beitragen kann, das Wissen zu erweitern und komplexe Realitäten wie nachhaltige Entwicklung oder sogar Migrationsströme besser zu verstehen.

Generative KIs sind fantastische Werkzeuge, die Ergebnisse hervorbringen können, die wir ohne sie nicht erreichen könnten, weil sie auf Darstellungsebenen rechnen, die nicht unsere eigenen sind, auf einer gigantischen Datenmenge und mit einer Geschwindigkeit, mit der ein Gehirn nicht umgehen kann. Wenn wir wissen, wie wir uns mit Schutzmaßnahmen ausstatten, handelt es sich um Systeme, die uns Zeit beim Suchen, Lesen und Produzieren von Informationen ersparen und es uns ermöglichen, Stereotypen entgegenzuwirken und Prozesse zu optimieren.

Diese Tools kommen jetzt nicht zufällig. Während wir faktisch in einer Flut von Informationen ertrinken, die kontinuierlich von herkömmlichen Kanälen oder im Internet zugänglichen Inhalten ausgestrahlt werden, bieten Tools wie ChatGPT ermöglichen es uns, Zusammenfassungen, Programme, Gedichte usw. aus einer Reihe gigantischer Informationen zu konsultieren und zu erstellen, die für ein menschliches Gehirn in menschlicher Zeit unzugänglich waren. Sie können daher für viele Aufgaben äußerst nützlich sein, aber auch zu einem Informationsfluss ohne Quellen beitragen. Wir müssen sie daher zähmen und verstehen, wie sie funktionieren und welche Risiken sie mit sich bringen.

Generative KI lernen

Die Leistung generativer KI hängt von der selbstüberwachten Lernfähigkeit (d. h. ohne Führung durch eine menschliche Hand, was ein anderes Konzept als die Echtzeitanpassung ist) ihrer internen Modelle ab, die als „Fundamentmodelle„, die aus riesigen Datenkorpora bestehend aus Milliarden von Bildern, Texten oder Tönen sehr oft in dominanten Kulturen im Internet trainiert werden, zum Beispiel GPT3.5 von ChatGPT wird hauptsächlich mit Daten in englischer Sprache gefüttert. Zwei weitere Arten des Lernens waren auch verwendet: Vor seiner Verfügbarkeit Ende 2022 wurde ChatGPT mit a optimiert überwachtes Lernen dann danke an a Verstärkungslernen durch Menschen, um die Ergebnisse zu verfeinern und unerwünschte Kommentare zu eliminieren.

Auch diese Optimierung durch den Menschen wurde vielfach kritisiert. Wie werden sie ausgebildet? Wer sind diese "unterbezahlte Klickmänner ? Über diese „unerwünschten“ Kommentare entscheidet zudem nicht eine Ethikkommission oder der Gesetzgeber, sondern allein das Unternehmen.

Lernen, das die Quellen vergisst

Beim Erlernen von Grundlagenmodellen auf Texten lernt das System sogenannte „lexikalische Einbettungsvektoren" (der Größe 512 in GPT 3.5). Dies ist das „Transformers“-System. Das Trainingsprinzip des Foundation-Modells basiert auf der Verteilungshypothese des amerikanischen Linguisten John Ruppert Fith aus dem Jahr 1957: Wir können die Bedeutung eines Wortes nicht kennen nur durch seine Häufigkeit („Sie werden ein Wort durch die Gesellschaft erkennen, die es pflegt“).

Diese Entitäten („Zeichen" in Englisch) sind in GPT3.5 durchschnittlich vier Zeichen. Sie dürfen nur aus einem und einem Leerzeichen bestehen. Sie können daher Teile von Wörtern oder Wörtern sein, mit dem Vorteil, dass diese Entitäten flexibel kombiniert werden können, um Wörter und Sätze ohne sprachliche Kenntnisse (abgesehen von denen, die in der Wortfolge enthalten sind) wiederherzustellen, wobei der Nachteil offensichtlich darin besteht, dass sie weniger interpretierbar sind. Jede Entität wird durch einen Vektor kodiert, der Informationen über alle Kontexte enthält, in denen diese Entität dank Aufmerksamkeitsmechanismen gesehen wurde. Somit werden zwei Entitäten mit derselben Nachbarschaft vom KI-System als nahe beieinander betrachtet.

Das generative KI-System auf Texten erlernt somit ein Produktionsmodell mit Mechanismen, die jedoch nichts mit der menschlichen, körperlich angesiedelten Produktion zu tun haben sie ist in der Lage, es anhand von Lerntexten nachzuahmen. Dieser Vorgang hat die direkte Folge, dass die Quellen verloren gehen, aus denen die identifizierten Stadtteile extrahiert werden, was ein grundlegendes Problem für die Überprüfung der produzierten Inhalte darstellt. Es ist nicht einfach, die Richtigkeit der Aussagen zu überprüfen. Wir müssen die Quellen finden und wenn wir das System darum bitten, kann es sie erfinden!

Wenn Sie ChatGPT eine Eingabeaufforderung geben, wird die nächste Entität vorhergesagt, dann die nächste und so weiter. Ein Schlüsselparameter ist die „Temperatur“, die den Grad der Zufälligkeit bei der Auswahl der Entitäten ausdrückt. Bei einer hohen Temperatur ist das Modell „kreativer“, da es vielfältigere Ausgaben generieren kann, während das Modell bei einer niedrigen Temperatur dazu tendiert, die wahrscheinlichsten Ausgaben auszuwählen, wodurch der generierte Text vorhersehbarer wird. Im Bing-Konversationstool (GPT4) von Microsoft werden drei Temperaturoptionen angeboten (präziser, ausgewogener, kreativer). Oftmals werden System-Hyperparameter aus Cybersicherheits- oder Vertraulichkeitsgründen nicht offengelegt, wie es bei ChatGPT der Fall ist … aber die Temperatur ermöglicht unterschiedliche Antworten auf die gleiche Frage.

„Halluzinationen“ und andere Risiken

Man kann sich daher einige der Risiken generativer KI für die Medien leicht vorstellen. Andere werden sicherlich erscheinen, wenn sie verwendet werden.

Es erscheint dringend erforderlich, einen Weg zu finden, sie zu minimieren, während auf die Verkündung eines Gesetzes für die Europäische Union gewartet wird IA-Gesetz indem man sich damit ausrüstet Gute Praxisleitfäden. L 'Bewertung des CNPEN zu generativer KI und ethischen Fragen enthält 10 Empfehlungen für die Forschung und 12 für die Governance. Hier sind einige der Risiken, die für die Medien identifiziert wurden:

  • Zu sehr auf das vertrauen, was die Maschine sagt, ohne es mit anderen Quellen abzugleichen. Die Verknüpfung mehrerer Datenquellen und die Notwendigkeit, Nachforschungen anzustellen, werden für alle Berufe von grundlegender Bedeutung: Journalisten, Wissenschaftler, Professoren und andere. Es scheint auch von grundlegender Bedeutung zu sein, den Umgang mit diesen Systemen in Schule und Universität zu lehren und zu vermitteln Pflegen Sie die Kunst der Debatte, um Ihre Ideen zu entwickeln.

  • Beachten Sie, dass ChatGPT hauptsächlich aus Daten in englischer Sprache besteht und dass sein kultureller Einfluss erheblich sein kann.

  • Der träge Einsatz von ChatGPT in den Medien führt zu einer Menge neuer, unbestätigter künstlicher Daten im Internet, die zum Trainieren neuer KI genutzt werden könnten. Es wäre tragisch, wenn es keine Garantie mehr für die Wahrheit dieser von der Maschine wiederhergestellten Daten gäbe. Beispielsweise gerieten zwei amerikanische Anwälte in die Falle, indem sie während eines Verfahrens auf den Rat des Algorithmus hin verwiesen Rechtsprechung, die es nicht gab.

  • Ersetzen Sie bestimmte Aufgaben in vielen Medienberufen durch KI-Systeme. Einige Jobs werden verschwinden, andere werden erscheinen. Es ist notwendig, Schnittstellen zu schaffen vertrauensbildende Maßnahmen um die Zusammenarbeit zwischen Menschen und KI-Systemen zu unterstützen.

  • Der Einsatz und die Entmystifizierung von KI-Systemen wird zu einer absoluten Notwendigkeit, wobei darauf zu achten ist, dass man nicht verlernt und auf sie verzichten kann.

  • Es ist wichtig zu verstehen, dass ChatGPT viele Fehler macht, zum Beispiel hat es kein Verständnis für Geschichte oder Raum. Der Teufel steckt im Detail, aber auch in der Wahl der Daten, die zur Erstellung des Modells verwendet werden. Das KI-Gesetz fordert mehr Transparenz über diese KI-Systeme, um deren Robustheit, Manipulationsfreiheit und zu überprüfen Energieverbrauch.

  • Es ist zu prüfen, dass die erzeugten Daten nicht in die Datenverarbeitung eingreifen Urheberrechte © und dass die vom System verwendeten Daten korrekt verwendet werden. Wenn „synthetische“ Daten morgen unser Wissen über das Training zukünftiger Grundlagenmodelle ersetzen, wird es immer schwieriger, Fakten von Fiktionen zu trennen.

  • Bereitstellung des Zugriffs auf KI-Systeme (z. B. Platte ou Stable Diffusion ), mit dem Hyperfakes erstellt werden können (Deepfake auf Englisch), um Bilder zu erstellen. Das Phänomen erinnert uns daran, wie wichtig es ist, nicht nur die Zuverlässigkeit von Artikelquellen, sondern auch von Bildern und Videos zu überprüfen. Es geht darum, Wasserzeichen (bzw Wasserzeichen) in den erstellten Texten, Bildern oder Videos, um herauszufinden, ob sie von KI erstellt wurden, oder um die Daten als „organisch“ (oder von Menschen produziert) zu kennzeichnen.

KI-Labor zur Entstehung und Grenzen generativer KI

Die Einführung von ChatGPT war für alle ein Tsunami. Mit seinen Textproduktions-, Übersetzungs- und sogar Computerprogrammierungskenntnissen hat er Experten und Laien gleichermaßen in Erstaunen versetzt.

Die genaue wissenschaftliche Erklärung des „Spark of Emergences“-Phänomens in Fundamentmodellen ist ein aktuelles Forschungsthema und hängt von den Daten und Hyperparametern der Modelle ab. Es ist wichtig, die multidisziplinäre Forschung zu Entstehung und Grenzen generativer KI sowie zu den zu ihrer Kontrolle einzusetzenden Maßnahmen massiv auszubauen.

Schließlich ist es notwendig Informieren Sie sich in der Schule über Risiken und Ethik sowie über Programmierung, und auch KI-Systeme trainieren und entmystifizieren, um sie verantwortungsvoll zu nutzen und zu innovieren und sich dabei der ethischen, wirtschaftlichen, gesellschaftlichen Konsequenzen und Umweltkosten bewusst zu sein.

Frankreich könnte eine wichtige Rolle in Europa spielen und sich zum Ziel setzen, ein KI-Labor für die Medien zu sein, indem es ethische und wirtschaftliche Fragen im Dienste des Gemeinwohls und der Demokratien untersucht.


Dieser Beitrag zu The Conversation France erweitert eine Intervention des Autors um Jéco 2023 die vom 14. bis 16. November 2023 in Lyon stattfanden.

Laurence Devillers, Professor für Künstliche Intelligenz, Sorbonne Universität

Dieser Artikel wurde von neu veröffentlicht Das Gespräch unter Creative Commons Lizenz. Lesen Sie dieOriginalartikel.

Die in diesem Artikel geäußerten Meinungen spiegeln nicht unbedingt die von InfoChrétienne wider.

Bildnachweis: Shutterstock / Skorzewiak


In der Kategorie Medien >



Aktuelle Nachrichten >