Zensur durch Content-Filter
Aufsatz:
Content-Filter als persönliche Assistenten S. 207-226, in: trust//das.prinzip.vertrauen Beiträge zum internationalen Kolloqium "Vertrauen. Das 21. Jahrhundert und darüber hinaus". Veranstaltet von Computational Design, Bergische Universität Gesamthochschule Wuppertal, 16.-17. Januar 2001 Herausgegeben von
Mihai Nadin
in Zusammenarbeit mit Lutz Becker
|
Presseberichte
über
Rechtsradikalismus und Pornographie im Internet erschüttern das
Vertrauen
ins Netz als Kommunikations- und Handelsmedium ebenso wie Viren und
andere
schädliche Mobile Codes. EU, Bundesregierung und Industrie
empfehlen
als Gegenmittel Filtersoftware, die sich zwischen den Anwender und das
Web schaltet und einerseits die Sabotage- und Spionage-Programme aus
dem
Informationsfluss heraussiebt, andererseits menschrechtsverachtende
Sites
einfach abblockt.
Während die Technik der Mobile-Code-Filter beherrschbar ist und aufgrund ihrer klaren und begrenzten Funktion das Systemvertrauen ins Internet erhöhen kann, zeigen die Filter gegen unerwünschte Äußerungen und Bilder technische Unzulänglichkeiten, die sie als Schutzmechanismen untauglich machen. Außerdem errichten sie ein letztlich unkontrollierbares Zensur-Instrumentarium, das das Web als Informationsquelle ad absurdum führt. Der einzige Ausweg könnte ein auf freiwilliger Selbstkontrolle basierender Filterschutz sein, der die Filterfunktionen als "Service" uneingeschränkt der Kontrolle der Endanwender unterwirft. Auch hier allerdings treten Nebenwirkungen auf: Harmlose und wertvolle Sites, die nicht mit den Selbsteinschätzungs-Mechanismen arbeiten, werden unverdient in Verruf geraten. |
Zur Kolloquiums-Website |