TRACENOIZER - The jurors statement
(Read_Me festival 2002 - Honorary Mention)
Read_Me
1.2 - http://www.macros-center.ru/read_me/adden.htm
Altri progetti hanno lavorato sull'idea di introdurre "rumore di
fondo" nei processi di sorveglianza con l'obiettivo di permettere
a singoli individui di rimanere nascosti. L'efficacia reale di questi
strumenti può essere spesso messa in discussione. E questo è
stato il caso di TraceNoizer. Per quanto ha visto la giuria, TraceNoizer
non è efficace nel senso letterale del termine nell'introdurre
rumore nelle identità digitali; dopo varie settimane di prove non
siamo ancora riusciti a trovare i nostri dati clonati nei motori di ricerca.
Tuttavia l'interesse della giuria per TraceNoizer sta nel suo uso di processi
algoritmici come strumento di critica. In TraceNoizer dei dati statici
diventano dei processi dinamici; il database onnisciente di un motore
di ricerca viene trasformato in qualcosa più simile al feedback
loop di un video. Ogni generazione di pagine Web create da TraceNoizer
torna ad auto-alimentare se stessa e (almeno in teoria) i motori di ricerca,
generando nuove pagine che rispecchiano gli originali - e i soggetti delle
pagine - in modo sempre più vago a ogni generazione successiva.
Il rumore di fondo aggiunto al database non è esterno, ma rappresenta
il motore di ricerca che si rivolta contro se stesso. I motori di ricerca
utilizzano sistemi di esclusione per stabilire e definire una volta per
tutte la "rilevanza" dei dati - dall'incestuosa tecnologia PageRank
di Google fino alla pratica non negata di accetare denaro per determinare
l'indicizzazione delle pagine [payola practices]. In questo contesto
il sistema di TraceNoizer, in cui i dati si riproducono guardando nel
loro stesso ombelico [looking up its own ass], sembra una risposta
appropriata e divertente.
© dell'autore - Traduzioni italiane No© d-i-n-a.net
2002 (l'uso non commerciale delle traduzioni è consentito riportando
integralmente questa dicitura - per informazioni contatta dina [at] d-i-n-a.net)
|