ChatGPT: Angesichts der Kunstgriffe der KI, wie Medienerziehung Schülern helfen kann

ChatGPT: Angesichts der Kunstgriffe der KI, wie Medienerziehung Schülern helfen kann

Wer hat noch nie davon gehört ChatGPT, dieser generativen künstlichen Intelligenz, die in der Lage ist, mit komplexen Texten auf Anfragen von Internetnutzern zu antworten? Die Veröffentlichung dieser von der Firma OpenAI entwickelten Software im Dezember 2022 löste eine Vielzahl von Artikeln aus, die zwischen Visionen von Katastrophe und Utopie schwankten und eine Medienpanik auslösten, wie das Beispiel zeigt Offener Brief vom März 2023, in dem ein Moratorium für die Entwicklung dieser Art von Systemen gefordert wird, unterzeichnet von tausend Forschern.

Wie von a gezeigt Studium der Columbia Journalism ReviewDie Panik begann nicht im Dezember 2022 mit der von OpenAI ins Leben gerufenen Veranstaltung, sondern im Februar 2023 mit den Ankündigungen von Microsoft und Google, die jeweils über ihren in ihre Suchmaschine integrierten Chatbot (Bing Chat bzw. Bard) dorthin gingen. Die Berichterstattung in den Medien verwischt die Informationen und konzentriert sich mehr auf den möglichen Ersatz von Menschen als auf die tatsächliche Konzentration des KI-Eigentums in den Händen einiger weniger Unternehmen.

Wie jede Medienpanik (die jüngste war die auf der réalité virtuelle und Metaverse) besteht ihr Zweck und ihre Wirkung darin, eine öffentliche Debatte anzustoßen, die es auch anderen Akteuren als den Medien und der digitalen Welt ermöglicht, sie zu nutzen. Für die Medien- und Informationskompetenz (MIL) steht im Hinblick auf soziale und schulische Interaktionen viel auf dem Spiel, auch wenn es noch zu früh ist, die Auswirkungen dieser Sprachmodelle auf den Unterricht abzuschätzen. Texte und Bilder werden automatisch generiert und für die Schüler verfügbar gemacht allgemeine Öffentlichkeit.

Parallel zu ordnungspolitische MaßnahmenDas EMI ermöglicht es den Bürgern, sich vor den mit der Nutzung dieser Instrumente verbundenen Risiken zu schützen, indem sie ihr kritisches Denken entwickeln und angemessene und verantwortungsvolle Nutzungsstrategien übernehmen. Algokompetenz, dieser Teilbereich von MIL, der untersucht, was Daten mit den Medien machen, ermöglicht die Anwendung dieser Leseschlüssel auf KI. Hier sind vier Richtungen, in denen MIL uns helfen kann, durch diese Ketten algorithmischer Interaktionen zu navigieren, von ihren Produktionen bis zu ihrem Publikum.

Berücksichtigen Sie die Geopolitik der KI

Es sind die Unternehmen, die Suchmaschinen und damit den Zugang zu Informationen kontrollieren, Google und Microsoft, die am meisten von der Entwicklung generativer KI profitieren. Sie sind im amerikanischen Stil als Duopol organisiert, mit einem (falschen) Herausforderer, OpenAI-LP. Es handelt sich eigentlich um den kommerziellen Arm des ursprünglich gemeinnützigen OpenAI-Labors (größtenteils finanziert von Microsoft).

EU und KI: Verordnung auf der Speisekarte der Abgeordneten (TV5 Monde, Juni 2023).

Eine andere Geschichte kann, vor allem durch die Medien, erzählt werden: die unglaubliche Konzentration von Macht und Geld durch eine sehr kleine Anzahl von Unternehmen in der Region Silicon Valley. Sie sichern sich das Monopol auf den Zugang zu Informationen und allen daraus resultierenden Produktionen. Sie befeuern den direkten Wettbewerb zwischen den Vereinigten Staaten und China in dieser Angelegenheit. Die Strategie von Google und Microsoft zielt in der Tat darauf ab, der chinesischen Regierung, die sich nicht versteckt, den Boden unter den Füßen wegzuziehen seine Ambitionen für die Entwicklung von KI.

Die Option einer Pause oder eines Moratoriums ist angesichts dessen, was einem Wettrüsten gleichkommt, ein Wunschtraum. Die Erfinder selbst, als reuige Zauberlehrlinge, darunter Sam Altman, der General Manager von OpenAI, machten im Mai 2023 einen Antrag „KI-Governance“. Aber wäre es nicht die Hoffnung, nicht die volle Wucht der staatlichen Regulierung zu erleiden, die ihnen entgehen und ihre kommerziellen Absichten dämpfen würde? Die Europäische Union hat mit der Vorbereitung eines KI-Regulierung die Nutzung dieser neuen digitalen Entwicklung zu regulieren.

Stellen Sie die Qualität der bereitgestellten Texte und Bilder in Frage

Nicht alles, was plausibel ist, ist notwendigerweise auch sinnvoll. Die KI, die die ChatGPT-Software antreibt, macht auf der Grundlage von Abfragen Vorschläge und diese erscheinen schnell … in einer ziemlich stilvollen und gepflegten Sprache! Dies kann jedoch zu Fehlern führen, wie zu seinem Leidwesen ein New Yorker Anwalt erkannte, der eine eingerichtet hatte Akte voller falscher Rechtsmeinungen und falsche juristische Zitate.

Seien Sie also vorsichtig bei KI-generierter Pseudowissenschaft. Die angebotenen Inhalte können Vorurteile aufweisen, da sie aus der Nutzung riesiger Datenbanken stammen. Dazu gehören Datensätze mit Quellen aller Art … einschließlich sozialer Medien! Die neueste kostenlose Version von ChatGPT basiert auf Daten, die Anfang 2022 enden, ist also nicht wirklich auf dem neuesten Stand der aktuellen Ereignisse.

Viele dieser Datenbanken stammen aus englischsprachigen Ländern, mit den damit verbundenen algorithmischen Vorurteilen. Tatsächlich besteht bei ChatGPT die Gefahr, Fehlinformationen zu erzeugen und sich für böswillige Zwecke zu eignen oder die Überzeugungen derjenigen zu verstärken, die es verwenden.

Es ist daher wie jedes andere Instrument zu verwenden, wie ein Wörterbuch, mit dem man recherchieren, einen Entwurf ausarbeiten kann ... ohne ihm Geheimnisse und persönliche Daten anzuvertrauen. Es ist ein guter Rat, ihn zu bitten, seine Quellen anzugeben, aber selbst das garantiert nicht, dass keine Filter vorhanden sind, da der Chatbot dazu neigt, eine Liste von Quellen zu erstellen, die wie Zitate aussehen, aber nicht alle echte Referenzen sind.

Darüber hinaus dürfen wir das nicht vergessen Kopierschutz Probleme die bald in die Tat umgesetzt werden.

Hüten Sie sich vor Vorstellungen rund um KI

Der BegriffIntelligenz ist nicht geeignet für das, was unter a fällt vortrainierte Datenverarbeitung (Die Bedeutung des Akronyms GPT für generativer vortrainierter Transformator).

Dieser Anthropomorphismus, der uns dazu bringt, Gedanken, Kreativität und Gefühle einem nichtmenschlichen Akteur zuzuschreiben, ist in zweierlei Hinsicht negativ. Es erinnert uns an all die angstauslösenden Mythen, die vor der Unzulänglichkeit jeglicher Porosität zwischen Lebenden und Nichtlebenden warnen, vom Golem bis Frankenstein, mit Ängsten vor dem Aussterben der Menschheit. Es dient dem gelassenen Verständnis des wahren Nutzens dieser Großtransformatoren. Science-Fiction hilft nicht, die Wissenschaft zu verstehen. Und deshalb ethische, wirtschaftliche und politische Maßstäbe zu formulieren.

Diese Imaginationen, so aktiv sie auch sein mögen, müssen entmystifiziert werden. Die sogenannte „Black Box“ der generativen KI ist im Prinzip recht einfach. Groß angelegte Sprachmodelle sind Algorithmen, die darauf trainiert sind, die Codes geschriebener (oder visueller) Sprache zu reproduzieren. Sie durchsuchen Tausende von Texten im Internet und wandeln eine Eingabe (z. B. eine Buchstabenfolge) in eine Ausgabe (die Vorhersage für den nächsten Buchstaben) um.

Was der Algorithmus mit sehr hoher Geschwindigkeit generiert, ist eine Reihe von Wahrscheinlichkeiten, die Sie überprüfen können, indem Sie dieselbe Abfrage erneut durchführen und feststellen, dass Ihre Ergebnisse nicht dieselben sind. Keine Magie da, auch keine Sensibilität, auch wenn der Benutzer das Gefühl hat, ein „Gespräch“ zu führen, ein anderes Wort aus dem menschlichen Wortschatz.

Und es kann Spaß machen, denn die von der BabyGPT-KI erstellte KI New York Times, Arbeiten an kleinen geschlossenen Korpora, um zu zeigen, wie Schreiben Sie wie Jane Austen, William Shakespeare oder JK Rowling. Sogar ChatGPT lässt sich nicht täuschen: Auf die Frage, wie es ihm geht, antwortet er ganz unverblümt, dass er dafür nicht programmiert sei.

Variieren Sie die Werkzeuge

Das KI-Publikum, insbesondere in der Schule, muss daher Wissen und Fähigkeiten rund um die Risiken und Chancen dieser Art sogenannter Konversationsroboter entwickeln. Neben dem Verständnis der Mechanismen der automatischen Informations- und Desinformationsverarbeitung bieten sich für die Aufklärung noch weitere Vorkehrungen an:

  • Hüten Sie sich vor dem Monopol der Online-Suche, auf das Bing Chat und Google Bard abzielen, indem sie miteinander konkurrieren und daher regelmäßig mehrere Suchmaschinen nutzen.

  • Die Forderung nach Etiketten, Farbcodes und anderen Markierungen, um anzuzeigen, dass ein Dokument von einer KI oder mit ihrer Hilfe erstellt wurde, ist ebenfalls gesunder Menschenverstand und einige Medien haben dies bereits vorweggenommen;

  • Fordern Sie die Hersteller auf, Reverse Engineering durchzuführen, um KIs zu produzieren, die die KI überwachen. was bei schon der Fall ist GPTZero ;

  • ein Gerichtsverfahren einleiten, Fall von ChatGPT „Halluzination“- - ein weiterer anthropomorphisierter Begriff, um einen Fehler im System zu kennzeichnen!

  • Und denken Sie daran: Je häufiger Sie ChatGPT in der kostenlosen und kostenpflichtigen Version nutzen, desto mehr helfen Sie dabei, es zu verbessern.

Im Bildungsbereich preisen EdTech-Marketinglösungen die Vorteile von KI an, um das Lernen zu personalisieren, die Datenanalyse zu erleichtern, die Verwaltungseffizienz zu steigern usw. Diese Metriken und Statistiken können jedoch in keiner Weise die Validierung der erworbenen Fähigkeiten und der Leistungen junger Menschen ersetzen.

So intelligent sie auch sein mag, KI kann die Notwendigkeit der Schüler nicht ersetzen, ihr kritisches Denken und ihre eigene Kreativität zu entwickeln, sich durch die Beherrschung ihrer Quellen und Ressourcen zu schulen und zu informieren. Während EdTech, insbesondere in den Vereinigten Staaten, sich beeilt, KI in Klassenzimmern einzuführen, von der Grundschule bis zur Hochschulbildung, bleibt die Wachsamkeit von Lehrern und Entscheidungsträgern von entscheidender Bedeutung, um die zentralen Aufgaben von Schulen und Universitäten zu wahren. Kollektive Intelligenz kann so die künstliche Intelligenz übernehmen.

Divina Frau-Meigs, Professor für Informations- und Kommunikationswissenschaften, Historische Autoren The Conversation France

Dieser Artikel wurde von neu veröffentlicht Das Gespräch unter Creative Commons Lizenz. Lesen Sie dieOriginalartikel.
Bildnachweis: Shutterstock / Pixeljäger

 


In der Kategorie Medien >



Aktuelle Nachrichten >