banner
Nachrichtenzentrum
Während sich die Branche weiterentwickelt, sind wir bestrebt, mit unseren Qualitätstechniken immer einen Schritt voraus zu sein.

Was ich meinen College-Studenten über die Verwendung von ChatGPT für Aufsätze erzähle.

May 19, 2023

Der Text klang wie das typische Wortgebrüll um 3 Uhr morgens bei Kurskonzepten – die Sätze vermittelten bestenfalls ein oberflächliches Verständnis dessen, was wir in diesem Semester gemacht hatten, und die Argumentation reagierte nur vage auf die Aufforderung. Es war die Art von Arbeit, bei der ich mich normalerweise frage: Ist dieser Schüler überhaupt zum Unterricht gekommen? Habe ich ihnen überhaupt etwas von Wert mitgeteilt?

Allerdings gab es keinen offensichtlichen Hinweis darauf, dass es sich um das Produkt einer Nachtschicht handelte: keine Grammatikfehler, keine Rechtschreibfehler oder Abweichungen von belanglosen Beispielen, die den Schülern spät in der Nacht tiefgründig vorkommen, aber definitiv wie das Produkt eines Bongschlags im Licht klingen des Tages.Vielleicht habe ich kurz vor Semesterende meinen allerersten Studentenaufsatz gesehen, der von ChatGPT geschrieben wurde?

Ich habe einen Teil des Textes in einen der neuen KI-Schreibdetektoren eingegeben. Doch bevor ich den Test durchführte, wurde mir klar, wie lächerlich und vielleicht hoffnungslos das war, was ich vorhatte: Ich würde eine Maschine benutzen, um zu sehen, ob eine andere Maschine einen Studentenaufsatz geschrieben hatte. Mir wurde klar, dass ich jetzt in einem Turing-Test lebe – da ich als Mensch nicht mehr ganz sicher sein kann, ob ich die Arbeit eines anderen Menschen lese oder eine kopierte und eingefügte Antwort, die von generativer KI erstellt wurde

Im Herbstsemester machte ich mir Sorgen, dass Aufsätze aus dem Internet gekauft werden könnten – schwer zu kontrollieren, aber normalerweise so unangebracht, dass Studenten ohnehin schlecht abschneiden. Im Frühjahrssemester haben sich die Spielregeln völlig geändert: Am Ende des Semesters muss ich auf der Hut sein, ob eine Maschine die Hausarbeiten für meine Studenten geschrieben hat.

Nachdem ich den Test durchgeführt hatte (laut Programm 10,1 Prozent von Menschen geschrieben), legte ich meinen Kopf auf meinen Küchentisch, überwältigt von dem Ansturm des technologischen Wandels, der seit Januar scheinbar mit Lichtgeschwindigkeit voranschreitet: generative KI für Text und Bilder und Kunst (und in geringerem Maße auch Musik und Video), was alles weitere Zweifel daran aufkommen lässt, was wir vertrauen können und was real ist.

Für meinen Verstand musste ich wissen, ob sowohl mein interner BS-Detektor als auch der automatisierte GPT-Detektor Recht hatten – dass der Aufsatz tatsächlich das Werk von ChatGPT war. In einer E-Mail an den Studenten gab ich ihm die Möglichkeit, offenzulegen, ob er das KI-Tool verwendet hatte, und versprach, dass es keine Notenabzüge oder ethischen Konsequenzen für seinen bestenfalls mit einer Zwei bewerteten Aufsatz geben würde – schließlich hatte ich das nicht getan hat dies in der Aufgabenstellung ausdrücklich ausgeschlossen. Sie hatten; Und wie bei den meisten Betrugsversuchen lag es daran, dass sie sich müde, gestresst und verzweifelt fühlten.

Technisch gesehen hatte ich mein erstes (bekanntes) Anspiel gegen eine Maschine gewonnen. Aber ich fühlte mich nicht siegreich.

Ich studiere und lehre über Medien, Politik und Technologie, was bedeutet, dass es buchstäblich meine Aufgabe ist, Menschen dabei zu helfen, das disruptive Potenzial neuer Medientechnologien für das bürgerliche Leben zu verstehen.

Das hat auch dazu geführt, dass dieses Semester zu den existenziell herausforderndsten meiner 17 Jahre im Klassenzimmer gehört – und ich habe während der Wahlen 2016 und in den ersten Jahren der Trump-Präsidentschaft in DC unterrichtet und zu Beginn der Pandemie auf Zoom (was hat jedes Molekül meines ADHS-Gehirns belastet).

Dieses Jahr hatte ich nicht nur die Aufgabe, ChatGPT whack-a-mole zu spielen, sondern ich musste mich auch mit dem möglicherweise bedeutendsten technologischen Wandel seit der Einführung des Smartphones auseinandersetzen. Über die Unterrichtsmechanik hinaus finde ich es dringender denn je, meinen Schülern (und mir selbst) dabei zu helfen, die Sprache zu finden, um über die Veränderungen, die wir erleben, zu sprechen und die Fragen zu entwickeln, die wir stellen müssen, um dem Ganzen einen Sinn zu geben.

Das disruptive Potenzial generativer KI hat mich fasziniert. Natürlich war ich nicht allein: The Atlantic erklärte den College-Aufsatz für tot; Meine Universität hat einen Pop-up-Kurs für Studierende und interdisziplinäre Lehrkräfte eingerichtet, um die Ethik der KI zu erforschen, und eine Reihe von Webinaren und Meetings einberufen, um den Lehrkräften zu helfen, sich mit dem neuen Ungeheuer vertraut zu machen, mit dem wir plötzlich konfrontiert waren.

Mittlerweile habe ich mich in jedem meiner drei Kurse darauf konzentriert, über Informationsstörungen zu unterrichten, also über die vielen Arten, wie unsere Informationsumgebung verunreinigt wird, von Deepfakes über Clickbait bis hin zu überparteilichen Nachrichten. Und obwohl ich die Prozesse und Anreize für die Erstellung und den Konsum irreführender Inhalte erklären konnte, gab es Momente, in denen ich völlig überwältigt war von dem Ausmaß und der Schnelligkeit, mit der GPT bereits Chaos verursachte.

„Ich habe nichts“, sagte ich meinen Schülern als Reaktion auf die gefälschten Trump-Verhaftungsfotos, die von einem Journalisten eines angesehenen investigativen Journalismusunternehmens erstellt worden waren (der, in seinen Worten, „nur herumalberte“). Wir verfolgten den Zeitplan und sprachen darüber, wer für die Fehlinformationen anfällig sein könnte, aber die Realität hatte einen lehrreichen Moment beschert, der sich völlig surreal anfühlte – wer wusste, was als nächstes kommen würde? (Ich lehre an einer katholischen Universität, daher sorgte zumindest das Foto mit dem Papst im Daunenmantel für etwas mehr Leichtigkeit.)

Dennoch waren meine Studenten darauf aus, die Informationsstörung, die Aufmerksamkeitsökonomie und Big Tech im Allgemeinen unnötigerweise übermäßig zu mystifizieren, und gaben damit ihre eigene Handlungsfähigkeit auf, um zu verstehen, was passiert. „Der Algorithmus“ und „KI“ wurden in meinen Kursen zu Schreckgespenstern: Allzweckwörter, die gleichzeitig das Karriereende bedeuten und die Angst vor allem auf den Punkt bringen, vom Abschluss über die Jobsuche bis hin zu Angriffen auf LGBTQ-Rechte und Abtreibung.

Wenn ich höre, wie meine Schüler über diese neuen Tech-Schreckgespenster diskutieren, erinnere ich mich an die Fehler, die wir bei der Kritik an den Nachrichtenmedien gemacht haben. Wenn die Worte selbst so viel Bedeutung haben und je nach Sprecher so viele mögliche Interpretationen haben, geben wir unnötigerweise unsere Fähigkeit auf, die Präzision und Nuancen zu verstehen, die wir brauchen, um Interventionspunkte zu diagnostizieren und unsere existenzielle Angst von unmittelbareren Bedrohungen der sozialen Gerechtigkeit zu trennen , Umwelt und Demokratie.

Bedenken Sie die vielfältigen Bedeutungen von „Fake News“ – von Memes im Internet und Politikern, die faktenbasierten Journalismus diskreditieren, bis hin zu Satire und Late-Night-Shows und mehr. Es wird fast unmöglich, genau zu sagen, wer welche Nachrichten als Fake bezeichnet, und es wird noch schwieriger, Rechenschaftspflicht einzufordern.

Darüber hinaus wird durch den Zusammenbruch großer Kategorien oder Industrien zu einzelnen und einheitlichen Einheiten deren Fähigkeit, die Öffentlichkeit zu beeinflussen, überbewertet. Die meisten Amerikaner werden zusammenfassend sagen, dass sie „den Medien“ nicht vertrauen – sie stellen sich eine Kabale von zwielichtigen Akteuren vor, die die Öffentlichkeit durch eine Art koordinierten Versuch der Gedankenkontrolle manipulieren.

Aber ein paar Folgefragen werden irgendwann dazu führen, dass Leute Ausnahmen für die Medien machen, denen sie vertrauen, sei es Fox, die New York Times oder ein bizarrer Verschwörungskanal auf YouTube. Die Medien sind kein Monolith – sie werden von den Wünschen, Entscheidungen und Fragen der Menschen geformt, die sie konsumieren.

Wenn es um generative KI geht und wir die Hände heben und dem Ende des College-Aufsatzes, dem Ende der Anwaltstätigkeit und sogar dem möglichen Ende der Menschheit nachtrauern, überlassen wir es auf die gleiche Art und Weise, die potenzielle Zukunft der Technologie zu diktieren die mächtigsten Stimmen, die in sie investieren.

In diesem Semester leitete ein Student im Unterricht eine Präsentation, die die Fähigkeiten von ChatGPT bei Salontricks demonstrierte: Es entwarf eine rudimentäre Website und erzählte uns einen schlechten Witz: Warum wurde die Tomate rot? Es sah das Salatdressing. Der studentische Moderator versäumte es, zu betonen, dass ChatGPT auch falsch sein könnte, und die Studenten gingen an diesem Tag murmelnd: „Das ist es, wir haben keine Jobs mehr.“

Es war äußerst schwierig, sie vom Gegenteil zu überzeugen – aber für meine Studenten und für die Öffentlichkeit ist der schnellste Weg, sich angesichts des scheinbar unaufhaltsamen technologischen Wandels hoffnungslos zu fühlen, die Entscheidung, dass er allmächtig und zu kompliziert ist, als dass ein normaler Mensch ihn verstehen könnte. Diese Hoffnungslosigkeit lähmt die öffentliche Kritik und ermöglicht es Technologieunternehmen, ungehindert weiterzumachen.

Auf dem Lehrplan meines Kurses „Surviving Social Media“ gibt es einen Abschnitt mit dem Titel „Was hat Gott gewirkt“, nachdem die erste jemals gesendete Telegrafennachricht veröffentlicht wurde – eine treffende Frage, die sich über die Zeit hinweg bewährt hat und die die Unfähigkeit unserer gegenwärtigen Sprache und Vorstellungskraft widerspiegelt verstehen, wie technologische Fortschritte die Zukunft prägen könnten.

In diesem Abschnitt unseres Kurses setzen sich die Studierenden mit den Unbekannten der Kryptowährung, Biohacking, Roboterliebe und der Frage auseinander, wie unser digitales Leben nach dem Ende unseres sterblichen Lebens weitergeht. Meine Studenten sind in der Lage, die Fragen zu definieren, die diese Fortschritte aufwerfen, die aktuelle Situation einzuschätzen und wahrscheinliche Zukunftsaussichten auf individueller und gesellschaftlicher Ebene zu identifizieren – ohne technische Experten oder Informatiker zu sein.

Das wollte ich mit dem Titel des Abschnitts zum Ausdruck bringen: Die Tatsache, dass Samuel FB Morses erste Telegrafenbotschaft aus dem Jahr 1844, die selbst eine Abwandlung einer Bibelstelle ist, immer noch eine relevante Frage aufwerfen kann, sollte uns Hoffnung geben, dass wir sie tatsächlich haben Vokabular, um die Macht über eine Welt zurückzugewinnen, die einer Vernichtung vom Typ Terminator immer näher zu sein scheint als je zuvor. (In unserer Abschlussaufgabe habe ich die Schüler ausdrücklich darauf hingewiesen, dass das Aufstellen eines PowerPoint-Bildes des nuklearen Holocaust keine akzeptable Antwort auf die Frage nach Worst-Case-Szenarien sei.)

Ich hoffe, dass ich meinen Schülern gezeigt habe, dass, wenn wir die Überbegriffe aufschlüsseln, die es so unmöglich machen, diesen Moment wirklich einzufangen – „KI“, „Algorithmus“, „Big Tech“ –, es möglich wird, zu erkennen, wie dieselben Fragen gestellt werden und Ausgangspunkte früherer Technikkritiken haben uns auf diesen Moment treffend vorbereitet.

Wir können mit einigen Grundlagen beginnen: Von welcher Art künstlicher Intelligenz sprechen Sie und welche spezifische Funktion oder Verwendung macht Ihnen Sorgen? Wer kann mit dieser speziellen Abspaltung der Technologie Geld verdienen? Wer hat die Fähigkeit, Vorschriften umzusetzen oder die Weiterentwicklung voranzutreiben?

Oder vielleicht einfacher: Wir tun gut daran, zu berücksichtigen, was der Zukunftsforscher und Technologieethiker Jaron Lanier kürzlich im New Yorker betonte: „Die pragmatischste Position besteht darin, KI als Werkzeug und nicht als Kreatur zu betrachten.“ Wenn wir uns daran erinnern, dass wir diese Technologien als Werkzeuge geschaffen haben, können wir uns daran erinnern, dass wir die Fähigkeit haben, ihren Einsatz zu gestalten.

Praktisch gesehen behandle ich GPT wie einen Taschenrechner: Die meisten von uns haben im Mathematikunterricht Taschenrechner verwendet und trotzdem keine perfekten Noten bekommen. Nachdem ich meinen ersten ChatGPT-Aufsatz entdeckt hatte, entschied ich, dass Schüler künftig generative KI für Aufgaben verwenden können, sofern sie offenlegen, wie und warum. Ich hoffe, dass dies dazu führt, dass ich weniger mit dem Kopf gegen den Küchentisch stoße – und dass es im besten Fall eine eigene Lektion für mich ist.

Future Tense ist eine Partnerschaft von Slate, New America und der Arizona State University, die neue Technologien, öffentliche Ordnung und Gesellschaft untersucht.