Zum Hauptinhalt springen
Projekt zur Digitalen Kommunikation

#GleichImNetz

Smartphone auf einem einem Tisch: Auf dem Bildschirm steht groß "Hello"
Tyler Lastovich/Unsplash
Wie können wir sozialen Organisationen zu mehr Internetpräsenz verhelfen? Wie können wir den Menschen, für die wir uns als freie Wohlfahrtspflege täglich einsetzen, auch online Gehör verschaffen? Wie können wir soziale Werte in Online-Debatten am geschicktesten platzieren? Wie können wir uns untereinander – fachlich, organisatorisch, privat – mit Hilfe digitaler Kommunikationsmittel noch besser vernetzen und ortsungebunden zusammenarbeiten? An diesen Fragen setzt das Projekt #GleichImNetz des Paritätischen Gesamtverbands an.
Eingraphisch nachgebildetes Gehirn, überlagert von einem Netzwerk, vor einem unendlichen Raum aus kryptischen Zeichen. Kühle Blautöne
Symbolbild KI

Worauf muss ich bei der Nutzung von KI-Tools achten?

KI-Tools sind keine intelligenten Alleskönner, sondern bringen Grenzen und Risiken mit sich, die wir als Nutzer*innen stets präsent haben sollten.

KI-Tools haben systembedingte Grenzen, etwa durch einprogrammierte Vorannahmen oder durch (mitunter unbewusst) tendenziöse oder untaugliche Trainingsdaten. Daher sollte bei der Nutzung der Ergebnisse solcher Tools stets kontrolliert und reflektiert werden, welche Perspektiven auf und Diskriminierungen in der Gesellschaft (resp. dem Gegenstand des Tools) damit fortgeschrieben werden bzw. welche Inhalte ggf. fehlen. Auch wenn Tools wie etwa ChatGPT einem menschlichen Gegenüber nahekommen, fehlen ihnen das Urteilsvermögen, Intuition und Kreativität.

Tools wie ChatGPT lernen auf Basis der Eingabedaten stetig weiter, diese werden gewissermaßen Teil ihrer Datenbank. Ihre Daten werden (bei vielen Anbietern) zudem auf amerikanischen Servern gespeichert, die den amerikanischen Geheimdiensten zugänglich sein müssen, was wiederum europäischen Datenschutz-Auflagen widerspricht. Aus beiden Gründen sollten bei Nutzung solcher Tools keine personenbezogenen oder sensiblen Daten eingegeben werden; Namen sollten weggelassen oder pseudonymisiert werden.

Um das Urheberrecht von Autor*innen und Künstler*innen zu wahren, sollten KI-Tools nicht mit geschützten Werken gefüttert werden.

Bild- oder textgenerierende KIs sind in der Lage, täuschend echte Ergebnisse zu produzieren. Sie bergen damit auch das Risiko, Falschmeldungen zu erzeugen und zu verbreiten, die von den Empfangenden als echt angenommen werden. Dass KI-Tools nicht in unlauterer Absicht eingesetzt werden sollten, versteht sich von selbst; darüber hinaus sollten informative Erzeugnisse stets nochmal auf Richtigkeit geprüft werden, um die versehentliche Verbreitung von Fake News zu vermeiden.

(Geschrieben vom Autoren, redaktionelle Prüfung mit Hilfe von ChatGPT)