Montag, 27. Juni 2011

"Personal Image Filter" #wikipedia

Garment

Dankenswerterweise von Lyzzy darauf aufmerksam gemacht. In den Tiefen der Mediawiki-Technik wartet der "Personal Image Filter":

a system that will allow readers to hide controversial media, such as images of a sexual or violent nature, from their own view.

Die Bilder werden in potenziell anstößige Kategorien sortiert, und die Kategorien können einzeln geblockt werden "with "somewhere between 5-10" global subcategories, and together with local ones "the interface can comfortably support around 10-12 filters before becoming unwieldy"."

Soll ich das jetzt super finden, weil es Konflikte entschärft, und die Wikipedia lesergerechter macht, oder ganz furchtbar, weil es der Aufklärung (also der mit 18. Jahrhundert/Diderot und so) im Weg steht?

P.S.: Temple Garment (Mormonism)

9 Kommentare:

Torsten hat gesagt…

Niemand wird diesen Filter als individuelle Lösung benutzen. Damit tatsächlich Filter greifen, müsste die Wikipedia schon eine URL-Lösung anbieten wie nonnudes.en.wikipedia.org.

Torsten hat gesagt…

PS: Folge der URL-Lösung wäre freilich, dass z.B. Schulen normale Wikipedia-Seiten blocken und die entschärften durchlassen.

Marcus Cyron hat gesagt…

Das Gemeine an der Sache ist, daß es gar nicht so leicht ist, wie im ersten Moment gedacht. Es geht ja eben nicht nur darum, ob irgendwo ein paar Nippel zu sehen sind, oder auf en:WP weiter das Cover zu "Virgin Killer" gezeigt werden kann. Es geht auch darüber hinaus. Will ich Bilder von Lynchopfern sehen? Von verwesenden Leichen? Von Abtreibungen (oder besser deren Resten)? Von Enthauptungen? Ich bin mittlerweile schon recht hart im nehmen - aber das eine oder andere mal sind die Bilder schon ganz schön heavy. Die Frage ist nun, ob es wirklich im Sinne Diderots ist, diese allen zwangsweise vorzuführen? Ich habe keine Antwort.

Anonym hat gesagt…

Vielleicht wäre hier eine Lösung ala "The Big Picture", d.h. spezielle Bilder liegen hinter einem Black Screen und müssen durch einen extra Klick geöffnet werden, wirklich eine gangbare Lösung. Damit könnte man zumindest den Überraschungseffekt entschäften.

lyzzy hat gesagt…

In dem Moment, in dem Bilder "prominent" verwendet werden, wie bei dem Vulva-Artikel, der als Artikel des Tages mit einem Foto auf der Hauptseite der Wikipedia vertreten war, ist die Aufregung groß. Und sie ist berechtigt. Die Vielzahl der in dieser Diskussion zusammengekommenen Stimmen zeigen deutlich, dass das ein Thema ist, das ganz unterschiedlich bewertet wird. Diderot, Aufklärung, Wissensvermittlung spielen da eine Rolle - Erziehung, Kultur, Werte aber eben auch. Und die Gewichtung ist individuell, sie läst sich offensichtlich nicht allein durch den Verstand und den Willen, Freies Wissen zu vermitteln, beeinflussen.

An anderen Stellen, der Artikel zu Wrestling-Matcharten wurde vor ein paar Tagen auf der hochfrequentierten Seite "Fragen zur Wikipedia" angesprochen, wird ein Foto auch einfach mal müde belächelt und mit den Worten "hier wird nicht zensiert" die Diskussion abgewürgt.

Wo ist der Unterschied? Ist eine Vulva anstößiger oder jugendgefährdender als blutende Wrestler mit einer Spritze in der Wange? Ich weiß es nicht, aber es scheint einen zu geben, zumindest in der Wikipedia-internen Wahrnehmung.

Wenn es in der Community schon so unterschiedliche Ansätze gibt, wie sieht es dann erst bei den Lesern aus? Ein auswählbarer Filter könnte die individuellen Bedürfnisse berücksichtigen. Ob er genutzt wird, hängt wohl auch von seiner Benutzerfreundlichkeit, seiner Tauglichkeit und seiner allgemeinen Unterstützung durch die Community ab.

Und wenn er da ist, aber ihn niemand nutzt, was wäre dann verloren?

dirk franke hat gesagt…

Ich weiss ja immer noch nicht. Massenwirksam wird der als persönliche Einstellung für angemeldete Benutzer nicht werden - könnte aber tataächlich Konflikte entschärfen; böse Bilder, die ich nicht sehe, stören mich nicht.

Wobei ich Liesels Vorschlag super finde.

Prinzipiell denke ich ja auch, als weiteres Angebot, sowas wie family.wikipedia.org widerspricht das meinem Verständnis der Aufgabe der Wikipedia fundamental.

Was ich mir aber vorstellen könnte, wäre endlich mal ein sinnvoller Spiegel oder vielleicht sogar ein funktionierender Fork. mormonpedia zB hätte Potenzial.

H-stt hat gesagt…

Ich lehne mich mal aus dem Fenster, dies deshalb, weil ich gerade zugesagt habe, mit der Foundation in genau dieser Frage mitzuarbeiten:

Die Filterlösung steht und fällt mit der Kategoriesierung. Die ist Voraussetzung, damit die Filter greifen. Diese Kats sind eigentlich keine echten Kategorien, sondern sollen wie Tags wirken. Tags sind binär, die Eignung eines Bildes für eine Zielgruppe ist aber graduell und zudem noch von der jeweiligen Kultur abhängig. Und dieses Problem ist unlösbar.

Es gab dazu viele Lösungsansätze, Liesel nennt The Big Picture, das ist dort aber ein redaktionelles Projekt, da entscheidet einer darüber welche Bilder hinter die Wall kommen und individuell freigeschaltet werden müssen. Er schwärzt dort ausschließlich die Opfer von Gewalt, die Täter (in der Regel sind das heroische amerikanische Soldaten) werden völlig unmaskiert beim Töten gezeigt, solange sie das mit fern wirkenden Waffen tun und die Opfer nicht im selben Bild sind.

Der unsägliche "Miller-Test" ist einen Schritt weiter, da er auf die Standards der jeweiligen Community abstellt. Aber wer ist die Community der Wikipedia-Leser? Welche Standards sollen herangezogen werden?

Daher glaube ich nicht, dass diese Lösung jemals in die Gänge kommen kann. Die Foundation hat sich da in Folge des unerträglichen Gutachtens etwas aus den Fingern gesogen, das nicht umsetzbar ist.

dirk franke hat gesagt…

H-stt,

ich weiß das gar nicht so genau. Wikipedia und Commons sind voller Konstruktionen und Systeme, die eigentlich überhaupt nicht funktionieren können - praktisch holpert sich das dann meistens irgendwie gangbar hin.

dirk franke hat gesagt…

Kaum spricht man vom Personal Image Filter, gibt es auch schon The Wikimedia Foundation, at the direction of the Board of Trustees, will be holding a referendum to determine whether members of the community support the creation and implementation of an opt-in personal image filter..The referendum is scheduled for 12–27 August, 2011