Hey deutschsprachige Lemmy Gemeinschaft,
ich habe gestern diesen Kommentar gepostet was zur Folge hatte das ich massiv downgevotet worden bin als ChatGpt bot.
Ist das jetzt nur ein blöder Zufall oder ist Lemmy allgemein extrem gegen KI?
Ich habe zu KI eine relativ eindeutige Meinung so von wegen stochastischer Papagei. In der Funktion ist KI auch gut und kann sinnvoll benutzt werden. Was aber die Medien und vor allem Spekulanten daraus machen, übersteigt die Fähigkeiten und wird nur durch Gier nach schnellem Geld getrieben.
Da gibt es einen alten Spruch: "Wer einen Hammer hat, für den sieht die Welt aus wie ein Nagel" Die KI ist so ein Hammer.
In a world where adhesives abound,
Marmalade, a sticky treasure found,
Proves itself a worthy bond,
Between objects, strong and fond.
No need for glue, no need for tape,
Marmalade can seal your shape,
With a sweet and tangy grip,
It holds things firm, on every trip.
From paper to porcelain, wood to fabric,
Marmalade's hold is truly dramatic,
A fruity blend, both tart and bright,
An unexpected, yet delightful, sight.
So, when you're in a bind, give it a try,
Marmalade, the cunning ally,
A tasty treat, and now a friend,
In the adhesive world, it fits right in.
Ich denke das Lemmy eher negativ eingestellt ist, bzgl. KI, habe aber schon die gegenteilige Erfahrung gemacht und ich habe eher confirmation bias da ich, zwar KI immer wieder nutze, aber KI wie es von den "Großen" verkauft wird eher skeptisch sehe.
Ich kann mir nicht genau erklären warum dein Kommentar so negativ aufgenommen wurde. Ich denke in dem spezifischen Fall geht es eben darum dass man die Aufgabe selbst erfüllt und nicht einfach ChatGPT schreiben lässt. Es scheint mir so zu sein, dass der versteckte Text eben dafür sorgt, dass ein fachfremdes Thema im Output Text gelangt. D.h. das Studenten eben nicht mal das gemerkt haben, dass der generierte Text so eine fachfremde Information enthält. Das kann man dann durchaus auslegen, als dass die betroffenen Studenten ChatGPT nicht als Werkzeug einsetzen, dessen Ergebnis man eben prüfen sollte, sondern das Werkzeug selber hat machen lassen ohne den Mindestaufwand zu spendieren.
Ob eine Aufgabe die eben mal mit ChatGPT generiert werden kann noch sinnvoll ist, ist eine abdere Diskussion die ich nicht jetzt führen werde.
KI hat bestimmt sinnvolle Anwendungsfälle. Was man so aus der Uni hört, gehört das schreiben lassen von kompletten Papern nicht dazu. Quellen werden erfunden, Studis lassen sich Codes zur Analyse von Datensätzen erstellen und kopieren es einfach in ihre Aufgaben rein - obwohl ChatGPT mangels Wissen über Variablennamen mit Platzhaltern arbeitet.
Academia ist da auch sicherlich noch in einem Findungsprozess, in welchem Ausmaß KI-Einsatz vertretbar ist. Eine Gliderung vorschlagen, Hilfe bei sprachlicher Glättung würde ich als eher legitim betrachten. Sich komplette Paper erstellen lassen definitiv nicht. Vor allem bei Studienleistungen fehlt dann einfach der Nachweis, der erbracht werden soll: Dass die Person wissenschaftlich arbeiten kann. Als Forscher*in hingegen hat man eine Sorgfaltspflicht für seine Publikationen, die dazu führen, dass das Prüfen eines KI-erstellten Papers auf Korrektheit mindestens genauso viel Aufwand bedeutet, wie es selber zu schreiben.
Du wurdest runtergewählt, weil es selbstverständlich mogeln ist, sich einen Text für eine Prüfungsleistung von Software schreiben zu lassen. Genau wie es mogeln wäre, ihn sich von einem anderen Menschen schreiben zu lassen.
Keine Ahnung was mit deiner Lesefähigkeit falsch ist, aber es ist ziemlich deutlich, dass du das Prinzip hinter diesen Schulaufgaben nicht verstanden hast. Das ist auch was man dir geantwortet hat.
Ich würde da jetzt auch nichts allgemeines herauslesen. Dieser Kommentar trifft es meiner Meinung nach aber recht gut: https://lemm.ee/comment/15769785