Skip Navigation

KI Reglementierung: Systeme schreiben überzeugende Falschmeldungen

science.orf.at KI schreibt überzeugende Falschmeldungen

Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimis...

KI schreibt überzeugende Falschmeldungen

Crossgeposted von: https://discuss.tchncs.de/post/453970

Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.

In einer Studie zeigen Schweizer Forscherinnen und Forscher, dass ...

die fast 700 Probandinnen und Probanden nicht in der Lage waren, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.

Außerdem zeigte sich, dass ...

die vom Sprachmodell GPT-3 generierten Texte oft leichter verständlich waren als die Texte von realen Twitter-Nutzerinnen und -Nutzern – auch wenn der Inhalt nicht der Wahrheit entsprach. Die „Fake News“ der KI wirkten laut den Probandinnen und Probanden oft überzeugender als falsche Informationen, die von Menschen geschrieben wurden.

Schwieriges Thema und vorallem schwierig hier eine sinnvolle Reglementierung zu finden, ohne zuweit einzugreifen. Vorallem ist es technisch schwer, da solche Systeme in der Entscheidungsfindung grundsätzlich eine BlackBox darstellen, aber dadurch auch interessant wie man solche Gefahren in Zukunft mitigieren will.

9

You're viewing a single thread.

9 comments
9 comments