Wir übernehmen für Dich das Aufdecken von Hasskommentaren und Beleidigungen in Deinen DMs. Wenn Du uns Dein Mandat erteilst hast Du vor allem erstmal eines: Ruhe. Du kannst durchatmen und wir übernehmen Schriftverkehr, Kosten, Akteneinsichten und Prozesse. Einmal im Monat bekommst Du eine Übersicht mit den Hass-Botschaften, die wir herausgefiltert haben. Zu Deiner Kenntnis und für Deine Freigabe – den Rest übernehmen wir.
KI ordnet ein und trennt Kritik von Hass.
Kostenfrei. Der Dienst finanzierst sich durch 50% Kosten der Geldendschädigung bei Prozesserfolg.
Eigentlich ist genau das so ziemlich das einzige, worin LLMs gut sind. Und so ganz ohne Infos über die Architektur dahinter kann man darüber aus meiner Sicht kein definites Urteil fällen.
Ich meine LLMs sind ziemlich unfähig, um Zitate, Sarkasmus und andere Formen zu erkennen, die Kontext brauchen.
Zum Filtern mag das geeignet sein, je nach Situation und Präferenz der Person. Wenn es darum geht, Prozesse gegen die mutmaßlichen Täter zu führen, wird wohl nichts daran vorbeigehen, dass klassisch von Menschen Kommentar für Kommentar auswerten zu lassen.
Ja fragwürdig ist ja kein Urteil, es ist einfach fragwürdig ob das funktioniert wie gewünscht, wie viel und was geblockt wird und wie mit dem Problem im allgemeinen verfahren wird.