top of page

Das Projekt

Wir erforschen Methoden und Ansätze zur quantitativen Erhebung und Bewertung von demokratiegefährdenden Inhalten, einschließlich Hass im Netz und Anzeichen von Radikalisierung. 

Wie beispielsweise die Bilder des Sturms eines aufgebrachten Mobs auf das amerikanische Kapitol im Jänner 2021 gezeigt haben, können virtuell geführte Hasskampagnen ernste demokratiegefährdende Ereignisse nach sich ziehen. Geschwindigkeit und Ausmaß dieser Eskalation zeigten uns deutlich, dass „Hass im Netz“ und „Radikalisierung“ nicht nur virtuell latente Bedrohungen demokratischer Einrichtungen und der Demokratie selbst darstellen, sondern dass diese auch durch direkte Angriffe auf Institutionen und Individuen in die Tat umgesetzt werden können. In diesem Zusammenhang werden digitale Plattformen zunehmend zur Verbreitung von demokratiegefährdenden Inhalten missbraucht und Hass im Netz und Radikalisierung im Netz wurden zu akuten Problemen. 

Anker 1

Zielsetzungen

RAIDAR will in diesem Kontext nicht nur neue Methoden zur Sondierung dieser Inhalte liefern, sondern  eine anwenderfreundliche und IT-basierte Plattform zur teilautomatisierten und versatilen Analyse von großen Datenbeständen entwickeln, die sich aus unterschiedlichsten Quellen speisen. Ziel dabei ist, das System in die Lage zu versetzen, automatisch und mit Hilfe von künstlicher Intelligenz relevante Inhalte in diesen Datenbeständen mit gesetzlichen Bestimmungen in Verbindung zu bringen, welche aus strafrechtlicher Sicht Hass und Radikalisierung im Netz zuzuordnen sind.

Datenwissenschaftliches Werkzeug/Plattform zur teilautomatisierten Analyse großer Datenbestände

Entwicklung der prototypischen Data Science-Plattform RAIDAR zur quantitativen und qualitativen Analyse großer digitaler Datenmengen, zur praktischen Unterstützung der Justiz, sowie zur Ermöglichung großflächiger Studien.

Versatile Daten- und Quellenanalyse

Schaffung der Möglichkeit einer Auswertung großer Datenmengen aus unterschiedlichen Quellen (online, externe Datenträger etc.) und der automatisierten Einordnung von Inhalten bzgl. strafrechtlich relevanter Paragrafen (z.B. Verbotsgesetz). 

Deutschsprachige Taxonomie zu „Hass im Netz“ und „Radikalisierung im Netz“

Entwicklung einer Taxonomie, auf deren Basis das Data Science-Werkzeug Inhalte hinsichtlich Hassrede oder extremistischer Natur erfassen und auswerten kann, sowie als Grundlage für weitere Studien, für die Forschung oder anderen Projekten dient.

Ethische und rechtliche Evaluierung

Theoretische und empirische Erörterung ethischer und rechtlicher Fragen, die mit relevanten technologischen Themen bei RAIDAR in Verbindung stehen. Dabei werden ethische Grenzen im Kontext von künstlicher Intelligenz reflektiert, rechtliche Rahmenbedingungen analysiert und eine Technikfolgenabschätzung durchgeführt.

Impact

Die Projektergebnisse werden die Arbeitsbelastung der Staatsanwaltschaften durch teilautomatisierte Assistenzsysteme auf Basis künstlicher Intelligenz im Rechtsbereich entlasten. RAIDAR wird zudem eine konkrete Technologiebewertung zu den ethischen Grenzen und rechtlichen Rahmenbedingungen im Kontext von mit künstlicher Intelligenz unterstützter Analyse liefern. Darüber hinaus wird die RAIDAR-Plattform in einer Studie im Bereich „Hass im Netz“ und „Radikalisierung im Netz“ auf zeitlich und kontextuell relevante Inhalte angewendet und geprüft.

bottom of page