Palabras en juego Enfoques Multiculturales sobre las Sociedades de la Información 2005 - 2006 Coordinado por Alain Ambrosi Valérie Peugeot Daniel Pimienta Publicado por C & F Éditions Fuente: Vecam Palabras en juego El texto es publicado bajo licencia Creative Commons Atribución, su uso comercial no está autorizado. El conocimiento debe ser ofrecido en libre acceso... No obstante, los autores y editores necesitan un ingreso para continuar con su trabajo. Si usted tuviera la posibilidad, no dude en hacer su pedido en línea (€ 39). Contenido Hacia sociedades de saberes compartidos Alain Ambrosi / Valérie Peugeot / Daniel Pimienta Palabras en juego: historia de un proyecto Alain Ambrosi / Valérie Peugeot / Daniel Pimienta Sociedad de la información y Sociedad del conocimiento Sally Burch Gobernanza en red y gobernanza electrónica Partha Pratim Sarker La Gobernanza de Internet Carlos Afonso Diversidad cultural Alain Kiyindou Infraestructura y acceso universal Raphaël Ntambue La brecha digital Kemly Camacho Acceso público a Internet Subbiah Arunachalam Mujeres Mavic Cabrera-Balleza Accesibilidad Catherine Roy Inteligencia cooperativa Felix Stalder Expresión ciudadana Michel Briand La innovación por el uso Dominique Cardon Comunidades virtuales Luis Ángel Fernández Hermana Bibliotecas digitales Hervé Le Crosnier Gestión de saberes Pascal Renaud Educación Rosa María Torres Derechos humanos Rikke Frank Jørgensen Delito informático Stephanie Perrin Derechos de la comunicación Sean O’ Siochru / Alan Alegre Medios de comunicación Marc Raboy / Marcelo Solervicens Piratería Sasha Costanza-Chock / Christine Schweidler Software libre Marcelo d’Elia Branco Los derechos de propiedad intelectual Mouhamadou Moustapha Lo Economía de la información Roberto Verzola Los desafíos del multilingüismo Adriana Lau Los autores Alain Ambrosi Es el actual director del “Carrefour Mondial de l’Internet Citoyen”, responsable de la conferencia de GlobalCN Montreal 2002. Ha trabajado durante varios años en cooperación internacional en el seno de ONGs y ante gobiernos y agencias multilaterales en el campo de la comunicación para el desarrollo. Investigador independiente y consultor, es autor de numerosos artículos y editor de obras en diferentes idiomas. También ha producido y dirigido películas documentales sobre diversos continentes. Su interés y su militancia en el transcurso de los últimos diez años se concentran en la puesta en red de las organizaciones de la sociedad civil en el campo de la comunicación democrática. Ex director del Servicio Universitario Canadiense Ultramar y co - fundador de las ONG Video Tiers-Monde y Vidéazimut, ha participado desde 1995 en numerosas “redes de redes” internacionales de profesionales y de investigadores (entre ellas la Plataforma de Londres, Voices 21, la Table Ronde MacBride, CRIS). Es miembro del partenariado de Global CN desde Barcelona 2000. Ha organizado encuentros internacionales en todos los continentes. En 1998 organizaba para Vidéazimut la conferencia virtual sobre “El derecho a comunicar”. http://videazimut.lecarrefour.org. Daniel Pimienta Director de FUNREDES, Asociación Redes y Desarrollo para la promoción de Internet en el Caribe, Daniel Pimienta ha participado en la gestión de comunidades virtuales, la formación de usarios, la creación de recursos de información, la negociación de acuerdos de mutuo beneficio con proveedores de Internet. Anteriormente, luego de una carrera de arquitecto de sistema de telecomunicaciones para IBM en Francia, posteriormente en Estados Unidos, asumió el puesto de Consejero Científico de la Unión Latina en Santo Domingo y el de Director de la Oficina del proyecto REDALC (Red para América Latina y el Caribe). Se dedica a la diseminación de las Tecnologías de la Información y Comunicación en los países en Desarrollo, hacia los sectores de la educación, la investigación y el desarrollo. Valérie Peugeot Diplomada en Ciencias Políticas, trabaja y milita desde hace quince años en el mundo asociativo, en torno a las cuestiones de renovación democrática y de ciudadanía activa. Europa política, mundialización, salida de la sociedad salarial, alternativas a la sociedad de mercado son algunos de los temas sobre los cuales se ha comprometido. Actualmente es consultora en telecomunicaciones e Internet y administradora de la asociación VECAM - reflexión y acción para el Internet ciudadano. Esta asociación busca promover los usos sociales y democráticos de las TIC (tecnologías de la información y de la comunicación) y anticipar los cambios de sociedad generados por la entrada en la era de la información. Ella también es miembro del comité de redacción de la revista Transversales Sciences Culture. Sally Burch Periodista independiente británica, residente en Ecuador desde 1983. Es directora ejecutiva de la Agencia Latinoamericana de Información (ALAI). Ha publicado numerosos escritos sobre el tema de comunicación y nuevas tecnologías. Co-autora de los libros: Movimientos Sociales en la Red (ALAI, 2001) y “Se cayó el sistema”: Enredos de la Sociedad de la Información (ALAI, 2003). Entre 1990 y 1993, lideró la implementación del primer nodo de correo electrónico en Ecuador (Ecuanex). En 1993-95 fue coordinadora mundial del Programa de Apoyo a las Redes de Mujeres de la Asociación para el Progreso de las Comunicaciones (APC), iniciativa pionera en motivar a las mujeres a apropiarse del uso de Internet para la IV Conferencia Mundial de la Mujer de la ONU. En 2001-2003 actuó como co-coordinadora del Grupo de Trabajo sobre Contenidos y Temas de Sociedad Civil en el marco de la Cumbre Mundial de la Sociedad de la Información de la ONU. Es licenciada en literatura de la Universidad de Warwick (Inglaterra) y tiene un diploma en periodismo de la Universidad Concordia (Montreal, Canadá). Partha Pratim Sarker Partha Pratim Sarker trabaja como especialista en “TIC para el Desarrollo” y es cofundador de la red ciudadana “Bytes for All” (http://www.bytesforall.net) una de las principales comunidades en línea del Sur de Asia. Posee una larga experiencia en el ámbito de la documentación y la coordinación de proyectos de TIC para el Desarrollo relacionados con los derechos a la comunicación, la disminución de la pobreza, los medios y la comunicación a nivel popular, la gobernanza electrónica, los medios de vida rurales, etc. Actualmente trabaja como Coordinador de Proyecto para APC Asia ICT Policy Monitor Network (http://asia.rights.¬ apc.org). El Sr. Sarker ha trabajado o ha tenido experiencias como consultor en organizaciones tales como el IDRC, la Oficina Regional Asia Pacífico de la UNESCO, la Secretaría de GKP, APC, el Instituto del Banco Asiático de Desarrollo (ADBI por sus siglas en inglés), etc. También escribe y ha redactado informes de investigación para diferentes publicaciones internacionales como Government Technology International Magazine, Southern Review Journal, Asia Pacific Internet Handbook, etc. Uno de sus primeros sitios Web - http://www.drik.net - que él diseñó y utilizó - recibió el premio Global Bangemann Winner Award en la categoría de Cultura y Medios en 1999. Diseñador de multimedia en los primeros años de su vida profesional, el Sr. Sarker ha recibido numerosos premios, becas y reconocimientos por su trabajo en el sector de TIC para el Desarrollo. Carlos Afonso Luego de haber realizado estudios de ingeniero en la escuela politécnica y más tarde de economía, comenzó a trabajar en el campo del desarrollo humano en los años 70. Fue cofundador en 1981, con Herbert de Souza, de IBASE - Instituto Brasilero de Análisis Sociales y Económicos, época en la cual lanza el primer sistema de información destinado a las organizaciones de la sociedad civil en América Latina (AlterNex). Es igualmente cofundador de la ONG internacional APC - Association for Progressive Communications. En el curso de los años 90, fue miembro del comité de gestión de Internet del Brasil, presidente del comité ejecutivo de APC y llevó a cabo seis evaluaciones del impacto social de la implantación de proveedores de acceso en los países asiáticos para el CRDI (Canadá). Desde 1998, es director de planificación de la ONG brasilera RITS, Rede de informações para o terceiro setor, que busca promover los debates políticos públicos en torno a las cuestiones de inclusión digital y proveer servicios de Internet a las otras organizaciones de la sociedad civil. Entre 2003 y 2005 ha sido miembro de GNSO (Generic Names Supporting Organization), una de las organizaciones de apoyo en la ICANN que representa a los utilizadores no comerciales. De 2004 a 205 ha sido miembro del grupo de trabajo de la ONU sobre la gobernabilidad de Internet (WGIG). Interviene también como consultor ante diferentes instituciones internacionales y es autor de varias obras que giran en torno a temáticas sociales y políticas en relación con Internet. Alain Kiyindou Es maestro de conferencias y ocupa actualmente la función de jefe del Departamento de Información y Comunicación en el Instituto Universitario de Tecnología (Universidad Robert Schuman) de Estrasburgo. Sus principales trabajos tratan de la comunicación para el desarrollo en Africa, con una visión particular sobre la inserción de las TIC, el lugar de la cultura en la apropiación de las tecnologías y de la información, la diversidad cultural en los medios de comunicación, los contenidos africanos en Internet, la sociedad de la información, la fractura de la información y/o digital. Nacido en el Congo, estudió y también vivió en Costa de Marfil, donde participó en la eclosión de la prensa independiente de la era multipartidista creando el periódico El Desafío. Raphaël Ntambue Investigador asociado al CEAN (IEP - CNRS) Burdeos, es también director del Instituto de Investigación IRTAVI (Bruselas) y redactor en jefe de la “Revue des problématiques africaines”. Es doctor en filosofía y letras, formación completada con dos maestrías en informática y en cooperación al desarrollo. Fue director de investigaciones asociado al CNRS y es actualmente investigador invitado en la Escuela Nacional de Administración de Estrasburgo. Es autor de varios libros y artículos sobre Internet, el Africa y las cuestiones de desarrollo. Kemly Camacho Kemly Camacho es investigadora de la Fundación Acceso, a cargo del área de investigación sobre el impacto social de las tecnologías de información y comunicación. Trabaja en procesos de investigación participativa, analizando en conjunto con actores locales centroamericanos el papel que desempeñan las tecnologías en los procesos de desarrollo de los países de la región y que son liderados por estos mismos actores, interesados en transformar la realidad de los países pobres. Su formación es una combinación de ingeniería en computación, antropología, evaluación y actualmente cursa el doctorado en sociedad de información y conocimiento en la Universidad Abierta de Cataluña, Barcelona. Kemly es también coordinadora de la Oficina Latinoamericana de Bellanet -secretariado internacional de Centro de Investigaciones Internacionales para el Desarrollo de Canadá. También es profesora de la Universidad de Costa Rica y de FLACSO (Facultad Latinoamericana de Ciencias Sociales) en su maestría en comunicación, Internet y políticas públicas. Kemly tiene varias publicaciones en estos temas. Estos pueden ser leídos en el sitio http://www.acceso.or.cr/publicaciones Subbiah Arunachalam Subbiah Arunachalam (Arun) es consultor de información radicado en Madras (llamada actualmente Chennai) en el Sur de la India. Ha estado vinculado a las comunidades académicas y científicas indias durante más de tres décadas. Ha sido editor de revistas científicas (Indian Journal of Technology, Journal of Scientific & Industrial Research, Indian Journal of Chemistry, Proceedings of the Indian Academy of Sciences, y Pramana - Journal of Physics), escritor científico, investigador en química, profesor de Ciencias de la Información, bibliotecario en un laboratorio nacional, Secretario Ejecutivo de la Academia de Ciencias de la India y miembro de los consejos editoriales de revistas científicas. Actualmente es miembro distinguido de la Fundación para la Investigación M S Swaminathan y profesor invitado a media jornada en el Instituto Indio de Tecnología, Chennai. Entre sus intereses de investigación se incluyen la ciencia en la periferia, la cientometría y el acceso a la información. Mavic Cabrera-Balleza Mavic Cabrera-Balleza es activista feminista de las Filipinas, ha trabajado principalmente en los temas relacionados con los medios, la información y la comunicación y su impacto en las mujeres. Participa activamente en la defensa de intereses a escala nacional, regional e internacional para lograr un cambio en las políticas relacionadas con las mujeres, los medios y las tecnologías de la información y las comunicaciones. Ha producido programas de radio y otros materiales de difusión para las radios comunitarias, así como para la radio gubernamental y la radio comercial privada. También revisa y escribe para varias publicaciones internacionales. Mavic fue co-coordinadora del trabajo de la ONG Grupo de Trabajo sobre las Estrategias de Género durante la primera fase de la Cumbre Mundial sobre la Sociedad de la Información. Además, participó en el Grupo de Trabajo sobre los Medios Comunitarios durante la CMSI. Mavic es Socia Ejecutiva del Programa del Centro Internacional de la Tribuna de la Mujer. Además, es Vicepresidenta de AMARC (Asociación Mundial de Programadoras de la Radio Comunitaria). A la vez, es miembro del Comité Directivo del Grupo de Trabajo sobre Cuestiones de Género de la Unión Internacional de Telecomunicaciones. También es miembro de la Asian Communication Network. Antes de ocupar su actual cargo, Mavic era Directora del Programa para los Medios y los Servicios de Información y Comunicación en Isis Internacional-Manila. Catherine Roy Consultora que trabaja desde hace quince años en los medios de personas discapacitadas y comunitarios, colabora con diversas organizaciones preocupadas por las implicancias de la accesibilidad arquitectónica, la salud y los servicios sociales, la educación y el empleo, así como las políticas y programas públicos. Desde 1999, trabaja principalmente sobre el acceso de los quebequenses discapacitados a las tecnologías de la información. Pertenece igualmente a diversos comités y consejos de organismos preocupados por estos temas. Es vicepresidenta del W3 Quebec y miembro del Consejo de Administración de “Communautique”, del “Carrefour mondial de l’Internet citoyen” y de la ¬Comisión Internacional sobre las tecnologías y la accesibilidad - capítulo norteamericano. Felix Stalder Félix Stalder es cofundador de Openflows, una compañía de redes especializada en los aspectos técnicos y sociales de los ambientes colaborativos en línea, y el software libre en general. Además, es conferenciante sobre economía de los medios en la Academia de Artes y Diseño de Zurich, Suiza. Posee un Doctorado de la Universidad de Toronto y ha escrito ampliamente sobre el “código abierto como principio social” para medios académicos y populares. Vive en Viena. Sus textos están disponibles en http://felix.openflows.org Michel Briand Militante asociativo y electo local en Brest, es igualmente director adjunto de formación en una escuela de ingenieros, el ENST de Bretaña del Grupo de Escuelas de las Telecomunicaciones. Participó en la creación de la red “CRéATIF” apoyándose sobre los Papi Brestois (punto de acceso público a Internet) y el trabajo llevado a cabo en el seno de la OTV (observatorio de tecnologías en la ciudad). Creó y animó el grupo de trabajo municipal “ciudadanía y noticias tecnológicas”, crisol de las iniciativas de Brest (foro y portal de las asociaciones, llamado a proyecto, red de escuelas de Brest...). Luego del acceso público, el escrito público, la cobertura equitativa de los territorios, y la información como bien público son para Michel Briand los temas mayores de la sociedad de la información. En lo opuesto de las posiciones de poder, un funcionamiento abierto a la iniciativa, la creatividad, el debate, la participación, da sentido y eco a las realizaciones locales, crea el bien común. Es el sentido de su compromiso dentro de la red 13C del Internet creativo, cooperativo y ciudadano. Dominique Cardon Es sociólogo en el Laboratorio de usos de France Télécom R&D e investigador asociado en el Centro de Estudio de los Movimientos Sociales de la Escuela de Altos Estudios en Ciencias Sociales. Sus trabajos se refieren a las relaciones entre los usos de las nuevas tecnologías y las prácticas culturales y mediáticas. Si bien las nuevas tecnologías contribuyen a transformar las relaciones sociales de los individuos, también modifican el espacio público, los medios de comunicación y la manera de producir la información. La articulación entre sociabilidades y espacio público está en el origen de diferentes trabajos que tratan sobre las prácticas culturales, los medios alternativos o los programas televisados “interactivos”. Se interesa especialmente en los usos de las nuevas tecnologías por los militantes internacionales del movimiento altermundialista. Luis Ángel Fernández Hermana Periodista científico desde 1969, Luis Ángel Fernández Hermana ejerció en América Latina y en Europa y es corresponsal científico del Periódico de Catalunya desde 1982. Es miembro fundador del “Grupo de periodistas digitales” creado en 1996 en Cataluña.Trabajó mucho en torno al concepto de “gestión del conocimiento en red”, a partir del cual elaboró un método de colaboración en red y de animación de comunidades virtuales. Dirigió de 1996 a 2004 la empresa “enredando.com”, editora de la revista del mismo nombre dedicada a la reflexión sobre el impacto de Internet sobre la sociedad y que ha publicado más de 425 artículos acerca de este tema. Participó también en el origen de las tres jornadas internacionales “en.red.ando” (Barcelona 2000, 2001 y 2003) dedicadas a la visualización de la informática, la web inteligente y la web semántica). “Enredando” también coorganizó con las Universidades de las Islas Baleares y Vic, masters en comunicación digital. Actualmente continua su actividad de consultor y de periodista, enfocada hacia la aplicación de las tecnologías de la información a las organizaciones, la gestión de saberes en red, el desarrollo de sistemas de información para las comunicaciones virtuales. http://lafh.info Hervé Le Crosnier Es maestro de conferencias en la Universidad de Caen, donde enseña las tecnologías de Internet desde 1995. Sus investigaciones se refieren principalmente al impacto del desarrollo de Internet sobre la sociedad. Anteriormente fue conservador de biblioteca y creó la lista de difusión BIBLIO-FR, que agrupa a los profesionales francófonos de las bibliotecas, del libro y de la documentación (13.000 abonados y abonadas actualmente). Pascal Renaud Economista e informático de formación, dedica actualmente sus investigaciones a temas relacionados a las TIC para los países en desarrollo, en el seno de la IRD (Unidad de investigación “saberes & desarrollo”). Desde 1985, en la Orstom - actual IRD, Instituto de Investigación para el Desarrollo - coordina la instalación de una red TCP/IP entre los diferentes establecimientos del Instituto, primeramente en Francia, luego en Africa francófona y en los centros del Pacífico y de las Antillas. Este proyecto adquirirá una dimensión política cuando los organismos de investigación africanos, así como las ONG internacionales se asociarán a él, contribuyendo a la preparación de la Cumbre de la Tierra en 1992. Entre 1995 y 2004 comisionado en la UNITAR, agencia de las Naciones Unidas para la formación de cuadros de los países en desarrollo, conduce el programa “sociedad de la información & desarrollo”. Rosa-María Torres Lingüista, pedagoga y activista social con vasta experiencia en las áreas de la enseñanza, la investigación y la asesoría. Actualmente trabaja desde su propio instituto - Instituto Fronesis y es Secretaria Regional para América Latina y el Caribe de la World Culture Open (WCO). En Ecuador, fue Directora Pedagógica de la Campaña Nacional de Alfabetización “Monseñor Leonidas Proaño” (1988-2000) y Ministra de Educación y Cultura (2003), designada por el Movimiento Plurinacional Pachakutik. En Nicaragua (1981-1986) trabajó como consejera en el Viceministerio de Educación de Adultos y luego como coordinadora del Proyecto Regional de Educación Popular y Comunicación en la Coordinadora Regional de Investigaciones Económicas y Sociales (CRIES). Después de la Conferencia Mundial sobre Educación para Todos (1990), pasó a trabajar en UNICEFNueva York como Asesora Principal de Educación y editora de UNICEF’s Education News (1991-1996). Fue Directora del Programa para América Latina y el Caribe en la Fundación W.K. Kellogg (199698), donde desarrolló la Iniciativa de Educación Básica “Comunidad de Aprendizaje”, que llevó y continuó en IIPE-Unesco Buenos Aires (1998-2000). Rikke Frank Jørgensen Es Asesora Principal del Instituto Danés de los Derechos Humanos; asesora de la Delegación Danesa a la Cumbre Mundial sobre la Sociedad de la Información y co-coordinadora del Caucus de los derechos humanos de la sociedad civil. Rikke trabajó anteriormente como asesora en el Ministerio Danés de Investigación y Tecnologías de la Información, de 1995 a 2000, donde se ocupó de los impactos sociales de las tecnologías de la información. En 2000 cofundó la ONG danesa Digital Rights, de la que fue presidenta de 2000 a 2003. También participó en la fundación de European Digital Rights (EDRI) en 2002, y actualmente es miembro de la junta directiva de EDRI. Rikke posee una Maestría en Ciencias de la Información y una Maestría Europea en Derechos Humanos y Democratización, especializada en Internet y la libertad de expresión. Stephanie Perrin Stephanie Perrin es consultora especializada en materia de vida privada y de política de información. Consejera industrial para el Estado y la sociedad civil sobre la puesta en marcha de procedimientos y de políticas de protección de datos y sobre el impacto de las nuevas tecnologías en la vida privada.Es Coordinadora de la Investigación para el proyecto Anonymity (Anonimato), radicada en la Universidad de Ottawa. Es miembro ejecutiva del Centro de Información sobre la Privacidad Electrónica (EPIC) en Washington y trabaja con otras organizaciones de defensa en Canadá e internacionalmente. Es la antigua Jefa de Privacidad de Zero-Knowledge, la primera CPO de Canadá, y ha participado en varias asociaciones de CPO, trabajando con los responsables de implementar la privacidad en sus organizaciones. Stephanie contribuyó positivamente en la elaboración de las políticas de privacidad y criptografía de Canadá durante quince años. Anteriormente, como Directora de la Política de Privacidad del Grupo de Trabajo sobre Comercio Electrónico de Industry Canada, encabezó la iniciativa legislativa en Industry Canada que trajo como resultado la Ley de Protección de la Información Personal y los Documentos Electrónicos, legislación sobre la privacidad que entró en vigor en el año 2001 y ha establecido la norma a ser cumplida por el sector privado. Es la autora principal de un texto sobre la Ley, publicado por Irwin Law. Sean O’Siochru Seán Ó Siochrú posee más de veinte años de experiencia en las comunicaciones internacionales y las actividades de desarrollo local. Entre sus recientes funciones podemos citar: evaluación final del programa InfoTuk (iniciativa del Turcomenistan para el desarrollo humano durable); responsable del programa, UNDP, 2004; responsable del programa de Redes de Desarrollo Sosteniblede la UNDP 2003. En los años noventa desempeñó un papel importante en la evaluación de los Programas STAR y Telematique de la Union Europea. Fue Secretario General y Tesorero (anterior Vicepresidente) de la “Mesa Redonda MacBride sobre Comunicaciones”, para debatir de las cuestiones relacionadas con las comunicaciones internacionales. Su título primario es del Trinity College Dublin, y ha terminado estudios de postgrado en Canadá y Cork. Marc Raboy Marc Raboy es profesor y Beaverbrook Chair en Ética, Medios y Comunicaciones del Departamento de Historia del Arte y Estudios de Comunicación. Antiguo periodista en numerosos medios, formado en McGill, Marc Raboy enseñó previamente en la Universidad de Montreal y la Universidad Laval. Es autor o editor de numerosos libros y artículos, así como asociado para la investigación en el Programa de Derecho Comparativo y Política de los Medios en la Universidad de Oxford, y miembro del consejo internacional de la Asociación Internacional de Investigación sobre los Medios y la Comunicación (IAMCR por sus siglas en inglés). De 2001 a 2003, trabajó como asesor experto del Comité Permanente de la Cámara de los Comunes sobre la Herencia Canadiense para su estudio de la radiodifusión canadiense. También es miembro fundador de una campaña de defensa internacional de los Derechos a la Comunicación en la Sociedad de la Información (CRIS). Marcelo Solervincens Marcelo Solervicens es secretario general de la AMARC, Asociación Mundial de los radiodifusores comunitarios desde 2003. Titular de un doctorado en ciencias políticas (UQAM), tiene su base en Montreal (Canadá) y cuenta con una experiencia polivalente en los campos de la comunicación y de las nuevas tecnologías. Periodista de Radio Canadá Internacional y director general de Radio Centre - Ville, la radio comunitaria y multilingüe de Montreal, ha trabajado también en organizaciones no gubernamentales de cooperación internacional (CUSO, Oxfam, CEDAL) y publicado libros y artículos sobre América Latina. Christine Schweidler Christine Schweidler prepara un doctorado en Historia y Sociología de la Ciencia en la Universidad de Pensilvania. Recientemente también recibió un título de Licenciada en Epidemiología de la Universidad de California, Berkeley. Su investigación doctoral se centra en la historia de la enfermedad, las prácticas curativas y la salud pública en Vietnam. Otras áreas de investigación incluyen la relación entre comercio, IP y salud. Actualmente trabaja en Hanoi, Vietnam. Sasha Costanza-Chock Sasha Costanza—Chock es activista de los medios e investigador que trabaja en el tema de la economía política de la comunicación, la producción táctica de los medios, y el movimiento transnacional para los derechos a la comunicación. Posee una Maestría en Comunicación de la Universidad de Pensilvania, y es estudiante doctoral en la Escuela de Comunicaciones Annenberg de la Universidad del Sur de California. Actualmente, también trabaja con la campaña internacional para los Derechos a la Comunicación (http://www.crisinfo.org), la iniciativa de Acceso al Conocimiento (http://www.access2knowledge.org), y la red de distribución de videos Indymedia (http://video.indymedia.org). Marcelo D’Elia Branco Profesional en el campo de las Tecnologías de la Información desde hace veinticinco años, es actualmente consultor en tecnologías para la sociedad de la información. Acaba de terminar una misión ante la Presidencia de la República brasilera para favorecer la asociación de la sociedad civil a las políticas de la sociedad de la información. Es al mismo tiempo coordinador del “Proyecto Software libre Brasil” (http://www.softwarelivre.org), profesor honorario del Instituto Superior Tecnológico CEVATEC de Lima, en el Perú, y miembro del Consejo Científico del programa internacional de estudios superiores en Software libre de la Universidad Abierta de Cataluña - UOC - en España. Ha sido encargado de la implementación de la División de Telecomunicaciones para la municipalidad de Porto Alegre, y ha ocupado diversos cargos de dirección para el Estado de Rio Grande Do Sul, siempre para promover la implantación del software libre. Mouhamadou Moustapha Lo Doctor en Derecho Público de las Nuevas Tecnologías de la Universidad de la Sorbona, sus trabajos se refieren a la administración electrónica y al derecho público. Después de haber compartido sus responsabilidades profesionales entre la enseñanza y el periodismo durante varios años, es actualmente consejero jurídico de la Agencia de Informática del Estado (ADIE) ante la Presidencia de la República senegalesa. Roberto Verzola Roberto Verzola es en la actualidad un activista de la agricultura sostenible (anteriormente Secretario General) de Philippine Greens, una formación política que se basa en los principios de la ecología, la justicia social, la libre determinación y la no violencia. También es miembro de la junta directiva de PABINHI, una red de granjeros, académicos y otros grupos e individuos que practican y defienden la agricultura sostenible. Fue miembro (como representante de la comunidad) del Comité Nacional de Bioseguridad de las Filipinas, organismo gubernamental que regula los experimentos de la ingeniería genética en el país. También fue Miembro de la junta directiva y director ejecutivo de Soljuspax, una fundación que defiende las fuentes de energía seguras y renovables. Roberto Verzola participó en las campañas y estudios de política sobre la energía nuclear, la energía renovable, la eficiencia de la energía, las tecnologías de la información, la ingeniería genética, los derechos de la propiedad intelectual, la agricultura orgánica y las cuestiones medioambientales, con especial atención en los temas de la tecnología y su impacto social y medioambiental, en cooperación con varios grupos de defensa y movimientos sociales, desde los años 80. Es autor de “Towards a Political Economy of Information” (FNS, marzo de 2004). Adriana Lau Administradora adjunta Unión Latina La Unión Latina es una organización internacional fundada en 1954 por el Convenio de Madrid para promover y difundir la herencia cultural y las identidades del mundo latino. Presente en cuatro continentes, la Union Latina reúne 36 Estados miembros y concede el estatuto de observador a otros 4 Estados Hacia sociedades de saberes compartidos Alain Ambrosi Daniel Pimienta Valérie Peugeot Nuestra vida es plural: hablamos, intercambiamos, creamos, tejemos lazos en la diversidad. Sin embargo, desde hace una década, la expresión “sociedad de la información” ha entrado en nuestras vidas en singular. El término salió de los círculos de iniciados, y se le dedica una cumbre mundial. De todas las cumbres de la ONU que se sucedieron desde inicios de los años 90, es la única que lleva en su título el término de “sociedad”. Las cumbres anteriores se refirieron a uno u otro de los grandes temas planetarios que atraviesan nuestra época: el medio ambiente (Cumbre de la tierra en Río), las mujeres (Beijing), la demografía (El Cairo), lo social (Copenhague)... Que la CMSI no se llame simplemente CMI - Cumbre Mundial de la Información - no es anecdótico: para los que la concibieron, se trataba de mostrar que la cuestión de la información no era solamente un asunto de infraestructuras y de técnicas, sino que planteaba interrogantes a la sociedad. Un enunciado destinado a encontrar el apoyo de la mayoría: todos están de acuerdo sobre la amplitud de la mutación ligada a la llegada masiva de las tecnologías de la información a nuestras sociedades, tanto del Norte como del Sur. Sin embargo, el consenso se acaba allí, porque para los iniciadores gubernamentales de la cumbre, se hace referencia primeramente al impacto de la información en nuestros sistemas de producción: de la misma manera que el agua y luego la energía han sido la piedra angular de nuestras sociedades anteriores, basadas sobre la agricultura y más tarde, la industria, la información les parece la nueva columna vertebral de nuestras economías. Elegir el modo de producción como característica fundamental de una sociedad, no es algo neutro. Esta elección encuentra la adhesión, tanto de algunos herederos del marxismo, para quienes la infraestructura económica determina las superestructuras culturales, como la de los ultra liberales, que descifran el mundo solamente a través de la competencia económica. En el fondo, revela el primado otorgado a la economía, primado que recibe el apoyo tanto de los grandes media como de los responsables políticos y, por supuesto, económicos. La información, en carácter de motor económico, se convirtió para ellos en una nueva narración planetaria. Este enfoque del “todo económico” es denunciado desde inicios de los años 90 por numerosos movimientos ciudadanos y sociales a través del mundo, rebatiendo la supremacía de la lógica mercantil sobre todas las consideraciones ligadas a la salud, la cultura, el medio ambiente y el desarrollo en general. Esta resistencia opera actualmente luchando paso a paso para que las reglas del comercio internacional toleren excepciones, para que el interés común no esté subordinado al dogma según el cual nada debe trabar el intercambio mercantil que, siempre que sea “libre”, sería la fuente fundamental de crecimiento y bienestar. El ejemplo más conocido de derogación obtenido en estos últimos años es el de los medicamentos genéricos: en la cumbre de Doha, los imperativos de salud tomaron transitoriamente la delantera, con relación a aquellos de la propiedad y el comercio. A primera vista, el mismo movimiento de liberalización/resistencia se manifiesta cuando se llega a hablar de información: por un lado la doxa internacional pretende que solamente si los mercados no están reglamentados, se podrá aportar las estructuras necesarias para un acceso universal a la sociedad de la información. Por otro lado, algunos movimientos luchan para que la información siga siendo, ante todo, un bien público y preconizan una regulación y una gobernabilidad pública a la altura de los grandes desafíos de la era de la información. Mirando de cerca, las líneas de fuerza son mucho más complejas. Como si la información no pudiera dejarse encerrar en las grandes categorías que estructuran hoy las tensiones del mundo. En primer lugar, la información está efectivamente en el centro del proceso económico actual, pero lo supera y se escapa de él en gran medida. Para aquellos que buscan ver en la cultura solamente “bienes culturales” salidos de “industrias culturales” y fuentes de nuevos mercado potenciales, las redes de información hicieron explotar los intercambios de contenidos culturales no mercantiles, dando visibilidad a fuerzas creadoras, interconectadas de ahora en más, que inventan y experimentan sobre la marcha nuevos modos de producción en colaboración. Además, en el seno mismo de los procesos de producción, la información altera las reglas fundamentales del capitalismo. Permitiendo un crecimiento incesante de la productividad, ella traslada los costos de producción del centro mismo de la fabricación hacia campos de lo inmaterial, como el marketing y la publicidad, que a su vez contribuyen, a su manera, a moldear nuestra visión del mundo. Siempre en el orden económico, la abundancia intrínseca de la información, que se volvió reproducible a voluntad y a muy bajo costo gracias a la digitalización, hace inoperante cualquier tentativa de importar reglas provenientes de la propiedad de bienes materiales para aplicarlos al campo de la propiedad intelectual. Aquellos que hablan de fortalecimiento de los derechos de propiedad intelectual se inscriben en una carrera perdida de antemano, y aparentemente sin salida, para recrear artificialmente escasez mediante reglas jurídicas o técnicas. En otro orden de ideas, mientras que la propia economía de la información, hiper competitiva y poco regulada, es objeto de tentativas de construcción de posiciones monopolísticas (Microsoft, Google), emergen sin embargo de todas partes, procesos de producción cooperativos y de autoproducción, de creación por los mismos utilizadores. Su éxito saca a la luz el hecho de que la creatividad y la innovación escapan en parte al capitalismo clásico, cuestionando las nociones de progreso y de desarrollo. Mucho más allá de la esfera económica, los nuevos artefactos de la información (CMS, blogs, VoIP, VoD, podcasting) liberan la palabra. La mundialización, tomada en el sentido de la liberalización de las cuencas culturales, de una circulación de conocimientos, ya no es el privilegio de una élite mediática o mediatizada, sino que puede abrirse a aquellos y aquellas cuya expresión estuvo hasta ahora confiscada de facto. Entre los acaparadores de palabras, se encuentran aquellos que pretenden tener la exclusividad de la legitimidad del “decir”, que han tomado el control económico y político del espacio mediático. Los usos alternativos de las nuevas tecnologías de la información interpelan tanto del exterior como del interior a ese tradicional “cuarto poder”. Ellos presionan para redefinir las reglas de funcionamiento de los medios masivos de comunicación, así como su lugar y su papel, redefiniendo en el camino la noción misma de “servicio público” de la información, particularmente en el campo de la radiodifusión. Finalmente, desde los inicios de Internet, los actores que se encontraban en el corazón de la innovación tecnológica establecieron formas de autorregulación (W3C, IETF) que afectan tanto a los defensores de una “real política” de la superpotencia así como a los paladines del multilateralismo intergubernamental. En efecto, la emergencia de estas estructuras de normalización por consenso coincide con el poder creciente del sector privado en detrimento de los actores públicos (Estado, colectividades territoriales, instituciones supranacionales). Una erosión de la potencia pública que la ONU pone en escena en el transcurso de sus cumbres, celebrando cada vez un poco más el rol del sector privado y apelando a la generosidad de este último para financiar hasta sus mínimas iniciativas ¡comenzando por las mismas cumbres! En esto nos encontramos frente a una “doble obligación”: favorecer la participación creativa de sectores enteros de la sociedad, sin preparar el lugar a una privatización de las grandes funciones del Estado. Pero si por un lado no podemos volvernos ciegos a estos cuestionamientos de nuestras representaciones ligadas a la nueva importancia dada a la información, por el otro, no podemos pensar en la sociedad de la información fuera del mundo en el cual ella emerge. La CMSI se desarrolló en un período de más de tres años (julio de 2002 a noviembre de 2005). En el curso de estos tres años, la escena internacional ha sido marcada -entre otras cosas- por dos grandes evoluciones: La voluntad de la mayor potencia del mundo de rechazar el multilateralismo y la democratización internacional. Un aislamiento jalonado por el conflicto en Irak, la negativa reiterada de ese país de adherir a los acuerdos de Kioto y al Tribunal Penal Internacional, y en el momento en que escribimos, la obstrucción sistemática al proyecto de reforma de las Naciones Unidas y de cualquier tentativa de democratización del espacio político internacional. Bajo esta luz, el debate sobre la gobernabilidad de Internet, considerado como el más importante de la CMSI y el rechazo de los Estados Unidos de abandonar su control sobre el ICANN, no son más que la antesala de algo mucho más vasto. Estas actitudes se encuentran en otros lugares de negociación: en la UNESCO, los Estados Unidos, seguidos por la mayoría de los países desarrollados, se oponen a una convención con fuerza operatoria sobre la diversidad cultural; en la OMPI, donde estas mismas potencias bloquean el debate sobre una necesaria evolución de los conceptos de la propiedad intelectual para favorecer el desarrollo y el acceso al conocimiento en la hora digital. El aumento de los temores colectivos, nutridos a la vez por un terrorismo globalizado y por un discurso de “seguridad total”. La historia nos ha mostrado suficientemente que esos temores son el terreno privilegiado del conformismo social y de los engranajes de la guerra. Asistimos a un retroceso generalizado, cuando no se trata de cuestionar directamente, un cuestionamiento frontal, de los derechos humanos más fundamentales y de todo el edificio legal y jurídico internacional conquistado en el curso del siglo pasado. Al respecto, la elección de Túnez para recibir a la CMSI, país que no deja circular libremente la información, constituye una paradoja que solo este contexto de seguridad puede explicar. La innovación tecnológica en el corazón del mejoramiento de las condiciones de vida desde hace un siglo también se ve afectada por los abordajes de la seguridad, a riesgo de frenar sus capacidades creativas. Las vallas de protección democráticas, garantes de una utilización de la tecnología respetuosa de las libertades y de los derechos fundamentales, ceden el terreno a las justificaciones guerreras. Ante esta realidad multiforme de la era de la información, actores de todos los países tratan a su vez de prevenir riesgos, de estudiar y proponer alternativas, vivir y promover la complejidad rechazando las lógicas de encerramiento en una concepción monolítica de las sociedades del mañana. A través de esta obra escrita por alrededor de unas sesenta manos de diferentes orígenes culturales, hemos querido intentar restituir esta complejidad. No hay “una” sociedad de la información, sino sociedades, plurales, en movimiento, emergentes, cambiantes. Estas sociedades, como las palabras que las sostienen, no nos han sido dadas para digerirlas o asimilarlas, sino para construir colectivamente y de manera ascendente. La información y sus tecnologías no pueden hacer las veces de un proyecto común. El proyecto reside en lo que haremos de la información, los riesgos y las potencialidades que le son inherentes. Dejar expresarse y aumentar la creatividad, hacer circular los conocimientos, abrir los patrimonios de saberes a los más pobres, mestizar las culturas, respetando al mismo tiempo su diversidad, rechazar las regresiones religiosas nutridas por la ignorancia, proteger y promover las libertades, no confiscar la palabra. Crear un entorno propicio para que se desarrolle el deseo de comunicar, de ser y de hacer juntos. Palancas, todas ellas que están a nuestra disposición para poner la información al servicio de una dinámica de paz, de respeto y de solidaridad. Al servicio de las sociedades de los saberes compartidos. Palabras en juego : historia de un proyecto Alain Ambrosi Daniel Pimienta Valérie Peugeot En política, como en todas partes, las palabras nunca son neutras: portadoras de sentido, a veces de contrasentido, las palabras son el vehículo de la historia de la sociedad que las ha producido y de las representaciones del mundo de aquellos que las utilizan. Estas representaciones son diversas, contradictorias, hasta se podría decir conflictivas, según los actores que las formulan, los intereses y las lógicas sociales que reflejan. Sin embargo, estas palabras son utilizadas a menudo borrando esas contradicciones, de manera presuntamente consensuada y apolítica. En realidad, cada uno tiene su definición, esperando consciente o inconscientemente que al fin su “representación del mundo” se impondrá cuando las palabras que él utiliza estén en boca de todos. Al final, el poder de los grupos dominantes resulta reforzado y el statu quo conservador sobre las cuestiones reales es mantenido. En un contexto de mundialización acelerada, las palabras son más que nunca posturas ideológicas, ocasiones de enfrentamiento político, de donde los ciudadanos son excluidos. Términos como “gobernabilidad”, “desarrollo” constituyen dos ejemplos entre tantos otros. Incorporados en el vocabulario corriente de numerosas instituciones nacionales e internacionales, los supuestos ideológicos de los cuales son portadores son olvidados la mayor parte del tiempo y en consecuencia viven en nuestro imaginario y nuestro vocabulario colectivo como si fueran “neutros”. Es lo que denuncian simultáneamente otros numerosos actores (países del Sur, movimientos sociales y cívicos). Estos últimos se han propuesto, desde mediados de los años 90, elaborar una visión alternativa, un contra - dictamen ciudadano, alrededor de los temas más complejos y/o más opacos de nuestras sociedades, desde las finanzas internacionales hasta las biotecnologías, pasando por las cuestiones de salud pública. Las definiciones de las palabras y los conceptos que se encuentran en los documentos de las negociaciones internacionales o en los planes de acción nacionales, conllevan una dimensión eminentemente política. Parece entonces primordial que una reflexión ciudadana intente influir a su nivel elaborando otra visión. El poder de nombrar es la apertura a una participación ciudadana en el espacio de acción política. Las palabras no pueden escapar a los contextos lingüísticos y culturales en los que se insertan. Si bien es ilusorio confiar en simples traducciones para tratar textos fundamentales (muy a menudo redactados en inglés en su versión original), es importante discernir las diferencias sutiles de significado según los idiomas (hasta la ausencia de equivalente como en el caso de “conocimiento” y “saber”, que son traducidos por una sola palabra en inglés: knowledge). Para idiomas como el francés o el español, que son hablados en importantes espacios geográficos, es útil tomar conciencia de que los sentidos pueden variar en el interior de esos mismos espacios, por ejemplo, entre el Norte y el Sur (¿acaso “red ciudadana” tiene el mismo sentido en París que en Tombuctú?). La nueva era de la información en la cual hemos entrado es confrontada con estas cuestiones: como se encuentra en plena construcción, los actores que se involucran en su despliegue están forjando el vocabulario y por ese lado, delimitando los contornos en el espacio de las representaciones colectivas. Así pues, la primera fase de la CMSI (Cumbre Mundial de la Sociedad de la Información) de Ginebra ha mostrado efectivamente hasta qué punto ciertos términos estaban cargados de controversias, sin que por lo mismo llegáramos a crear un espacio para descifrar y debatir alrededor de las palabras más conflictivas, empezando por el mismo término de “sociedad de la información”. En este contexto particular de las tecnologías de la información y de la comunicación, donde la mayoría de los conceptos emergieron desde abajo, a través de los usos, un enfoque puramente académico sería igualmente un riesgo enorme de pasar por alto la esencia participativa. Esta constituye en sí misma una cultura propia de un campo que preconiza la emergencia de un nuevo paradigma y que se reconoce y se caracteriza por la cantidad de neologismos que son utilizados. A la luz de esta constatación y en previsión de la segunda fase de la CMSI, el “Carrefour Mondial de l’Internet Citoyen” (Montreal), reunido con otras dos asociaciones, Vecam (París), y Funredes (Santo Domingo), propuso un trabajo de análisis contradictorio e intercultural. Este proyecto viene a prolongar varios años de trabajo en común de estas tres asociaciones, especialmente en el marco de la GCNP (Global Community Networks Partnership), que permitieron confirmar la proximidad de sus compromisos. En esta perspectiva, el proyecto “Desafíos de palabras en la sociedad de la información” vio la luz: varios autores, preseleccionados por su capacidad para cruzar la visión universitaria y la visión de la práctica, fueron contactados para aclarar conceptos clave de la sociedad de la información. El criterio de su diversidad de origen cultural fue tomado en consideración para establecer la selección final de 27 autores. El pedido efectuado a estos autores incluía una guía de redacción para tratar la historia del concepto, la diversidad de definiciones posibles, así como una visión crítica sobre la diversidad formal empleada corrientemente en las negociaciones internacionales. El objetivo de “desafíos de palabras” es triple. Se trata de: Llevar a la plaza pública controversias frecuentemente desconocidas o subestimadas en cuanto a su alcance político. Ayudar a los movimientos sociales y ciudadanos a apropiarse de los términos de un debate y a forjar un vocabulario que sea el reflejo de sus prácticas, así como de su propio imaginario político y no el de las instituciones internacionales. Al hacer todo esto, contribuir a su fortalecimiento y a su capacidad de construcción de una alternativa política. El proceso se desarrolló en 4 fases: escritura de los textos por los autores, entrega de los textos traducidos en los tres idiomas complementarios a los otros autores a través de un sitio web y de una lista de discusiones destinadas al trabajo de la comunidad de autores, integración por cada autor de las sugerencias emanadas de los otros miembros de la comunidad y del comité editorial, edición de una nueva versión final cuadrilingüe. El proceso de contribución iterativa en 4 idiomas, se reveló, sin grandes sorpresas, laborioso pero indispensable. El resultado de este trabajo es difundido a través de un libro cuadrilingüe que es presentado públicamente en Túnez en el trascurso de la Cumbre Mundial de la Sociedad de la Información. Los promotores del proyecto no quieren detenerse en un “producto”, por más logrado que sea, sino más bien proseguir un proceso continuo de reflexión y de debates en el espíritu de una inteligencia cooperativa que aceptaría el desafío del multilingüismo. Por eso está previsto que los textos de esta obra sean colocados en portales cooperativos multilingües y animados en diferentes regiones del mundo. Los sitios son lecarrefour.org, vecam.org, funredes.org y deseamos que otros sitios puedan retomar y multiplicar esta colaboración. Este proyecto es una iniciativa del “Carrefour mondial de l’Internet citoyen”, en partenariado con Vecam y Funredes. La Unión Latina ha coordinado las traducciones. C&F Éditions se ocupa de la edición del libro y ha aceptado publicar documentos que están sometidos al régimen jurídico des las licencias Creative Commons (by, nc). Esto significa que los artículos pueden ser reproducidos por cualquier persona, a condición de respetar la referencia al autor y a la fuente y de hacer un uso exclusivamente no comercial. El proyecto recibió el apoyo financiero de la AIF (Agence Intergouvernementale de la Francophonie) y del CRDI (Centre de recherche pour le Développement), la traducción, un apoyo del Ministerio de Cultura francés y el conjunto fue beneficiado con el trabajo voluntario de varios de sus artesanos. Carrefour mondial de l’Internet citoyen El “Carrefour mondial de l’Internet citoyen” (Encrucijada mundial del Internet ciudadano), con base en Montreal, es un organismo de Québec comprometido en la promoción y la defensa de los derechos de la comunicación. Agrupa y se dirige a los miembros de redes ciudadanas, organismos, instituciones e individuos involucrados en la utilización de las tecnologías de la información y de la comunicación con fines ciudadanos, privilegiando al mismo tiempo la pluralidad y la diversidad cultural. http://lecarrefour.org Contacto: Alain Ambrosi, ambrosia @web.ca Vecam “Vecam” es una asociación francesa con base en París, que trabaja desde 1995 en torno a tres objetivos: contribuir, mediante un trabajo de vigilancia, a la reflexión sobre los impactos sociales de las tecnologías de la información; alentar a los organismos sin fines de lucro a movilizar las TIC al servicio de sus proyectos, particularmente en proyectos de cooperación internacional; movilizar para la construcción de una visión política de la sociedad de la información. http://www.vecam.org Contacto: Frédéric Sultan, [email protected] y Valérie Peugeot, [email protected] Funredes “Funredes” es una Organización No Gubernamental Internacional, con base en República Dominicana, que se dedica a la difusión de las Nuevas Tecnologías de la Información y de la Comunicación (NTIC) en los países en vías de desarrollo, especialmente en América Latina y el Caribe. Su objetivo: contribuir al desarrollo y a la integración regional en colaboración con las Organizaciones Internacionales, las ONG, los Estados, las Administraciones y las Instituciones públicas o privadas interesadas. http://funredes.org Contacto: Daniel Pimienta, [email protected] Sociedad de la información / Sociedad del conocimiento Sally Burch ¿Vivimos en una época de cambios o un cambio de época? ¿Cómo caracterizar a las profundas transformaciones que vienen con la acelerada introducción en la sociedad de la inteligencia artificial y de las nuevas tecnologías de la información y la comunicación (TIC)? ¿Se trata de una nueva etapa de la sociedad industrial o estamos entrando en una nueva era? “Aldea global”, “era tecnotrónica”, “sociedad postindustrial”, “era -o sociedad- de la información” y “sociedad del conocimiento” son algunos de los términos que se han acuñado en el intento por identificar y entender el alcance de estos cambios. Pero mientras el debate prosigue en el ámbito teórico, la realidad corre por delante y los medios de comunicación eligen los nombres que hemos de usar. Cualquier término que usemos, en el fondo, es un atajo que nos permite hacer referencia a un fenómeno -actual o futuro-, sin tener que describirlo cada vez; pero el término escogido no define, de por sí, un contenido. El contenido emerge de los usos en un contexto social dado, que a su vez influyen en las percepciones y expectativas ya que cada término lleva consigo un pasado y un sentido (o sentidos), con su respectivo bagaje ideológico. Era de esperarse, entonces, que cualquier término que se quiera emplear para designar la sociedad en la que vivimos, o a la cual aspiramos, sea objeto de una disputa de sentidos, tras la que se enfrentan diferentes proyectos de sociedad. En el marco de la Cumbre Mundial de la Sociedad de la Información -CMSI-, hay dos términos que han ocupado el escenario: sociedad de la información y sociedad del conocimiento, con sus respectivas variantes. Pero, si bien el marco impuso el uso del primero, desde un inicio provocó disconformidad y ningún término ha logrado un consenso. Historia de los términos Sociedad de la información En la última década, la expresión “sociedad de la información” se ha consagrado sin lugar a dudas como el término hegemónico, no necesariamente porque exprese una claridad teórica, sino por el bautizo que recibió en las políticas oficiales de los países más desarrollados, además de la coronación que significó honrarlo con una Cumbre Mundial. Los antecedentes del término, sin embargo, datan de décadas anteriores. En 1973, el sociólogo estadounidense Daniel Bell introdujo la noción de la “sociedad de la información” en su libro El advenimiento de la sociedad post-industrial[1], donde formula que el eje principal de ésta será el conocimiento teórico y advierte que los servicios basados en el conocimiento habrán de convertirse en la estructura central de la nueva economía y de una sociedad apuntalada en la información, donde las ideologías resultarán sobrando. Esta expresión reaparece con fuerza en los años 90, en el contexto del desarrollo de Internet y de las TIC. A partir de 1995, fue incluida en la agenda de las reuniones del G7 (luego G8, donde se juntan los jefes de Estado o gobierno de las naciones más poderosas del planeta). Se ha abordado en foros de la Comunidad Europea y de la OCDE (los treinta países más desarrollados del mundo) y ha sido adoptada por el gobierno de los Estados Unidos, así como por varias agencias de las Naciones Unidas y por el Grupo Banco Mundial. Todo ello con gran eco mediático. A partir de 1998, fue elegida, primero en la Unión Internacional de Telecomunicaciones y luego en la ONU, como el nombre de la Cumbre Mundial a realizarse en 2003 y 2005. En este contexto, el concepto de “sociedad de la información”, como construcción política e ideológica, se ha desarrollado de la mano de la globalización neoliberal, cuya principal meta ha sido acelerar la instauración de un mercado mundial abierto y “autoregulado”. Esta política ha contado con la estrecha colaboración de organismos multilaterales como la Organización Mundial del Comercio (OMC), el Fondo Monetario Internacional (FMI) y el Banco Mundial, para que los países débiles abandonen las regulaciones nacionales o medidas proteccionistas que “desalentarían” la inversión; todo ello con el conocido resultado de la escandalosa profundización de las brechas entre ricos y pobres en el mundo. En efecto, para fines de siglo, cuando la mayoría de los países desarrollados ya habían adoptado políticas de desarrollo de la infraestructura de las TIC, se produce el auge espectacular del mercado de acciones de la industria de la comunicación. Pero los mercados del Norte comienzan a saturarse. Entonces, se intensifican las presiones hacia los países en desarrollo para que dejen la vía libre a la inversión de las empresas de telecomunicaciones e informática, en busca de nuevos mercados para absorber sus excedentes de ganancias. Es en este contexto que se convoca la CMSI; panorama que se modifica, sin embargo, una vez que estalla la burbuja bursátil a partir del año 2000. No obstante esta realidad y el rol clave que las tecnologías de la comunicación han desempeñado en la aceleración de la globalización económica, su imagen pública está más asociada a los aspectos más “amigables” de la globalización, como Internet, telefonía celular e internacional, TV por satélite, etc. Así, la sociedad de la información ha asumido la función de “embajadora de buena voluntad” de la globalización, cuyos “beneficios” podrían estar al alcance de todos/as, si solamente se pudiera estrechar la “brecha digital”[2]. Sociedad del conocimiento La noción de “sociedad del conocimiento” (knowledge society) surgió hacia finales de los años 90 y es empleada particularmente en medios académicos, como alternativa de algunos a “sociedad de la información”. La UNESCO, en particular, ha adoptado el término “sociedad del conocimiento”, o su variante “sociedades del saber”, dentro de sus políticas institucionales. Ha desarrollado una reflexión en torno al tema, que busca incorporar una concepción más integral, no en relación únicamente con la dimensión económica. Por ejemplo, Abdul Waheed Khan (subdirector general de la UNESCO para la Comunicación y la Información), escribe[3]: “La sociedad de la Información es la piedra angular de las sociedades del conocimiento. El concepto de “sociedad de la información”, a mi parecer, está relacionado con la idea de la “innovación tecnológica”, mientras que el concepto de “sociedades del conocimiento” incluye una dimensión de transformación social, cultural, económica, política e institucional, así como una perspectiva más pluralista y desarrolladora. El concepto de “sociedades del conocimiento” es preferible al de la “sociedad de la información” ya que expresa mejor la complejidad y el dinamismo de los cambios que se están dando. (...) el conocimiento en cuestión no sólo es importante para el crecimiento económico sino también para empoderar y desarrollar todos los sectores de la sociedad”. Un matiz en este debate, que solo concierne a los idiomas latinos, es la distinción entre sociedad del “conocimiento” o del “saber” (ambos traducen el término inglés “knowledge society”). La noción de “saberes” implica certezas más precisas o prácticas, mientras que conocimiento abarca una comprensión más global o analítica. André Gorz considera que los conocimientos se refieren a “contenidos formalizados, objetivados, que no pueden, por definición, pertenecer a las personas... El saber está hecho de experiencias y de prácticas que se volvieron evidencias intuitivas y costumbres”[4]. Para Gorz, la “inteligencia” cubre toda la gama de capacidades que permite combinar saberes con conocimientos. Sugiere, entonces, que “knowledge society” se traduzca por “sociedad de la inteligencia”. En todo caso, por lo general, en este contexto se utiliza indistintamente sociedad del conocimiento o del saber, si bien en español conocimiento parece ser más usual. Definiciones actuales: el estado del Arte Es preciso diferenciar aquí aquellas definiciones que apuntan a caracterizar una realidad existente o emergente de aquellas que expresan una visión -o anhelo- de una sociedad potencial. Las dos son relevantes: las primeras por su aporte al análisis, las segundas porque orientan políticas y acciones. En la primera categoría nos referiremos a Manuel Castells por ser uno de los investigadores que más ha desarrollado el tema, además de ser una autoridad reconocida en la materia. Castells prefiere el término “sociedad informacional” antes que “sociedad de la información” (haciendo la comparación con la diferencia entre industria e industrial). Él señala que si bien el conocimiento y la información son elementos decisivos en todos los modos de desarrollo, “el término informacional indica el atributo de una forma específica de organización social en la que la generación, el procesamiento y la transmisión de información se convierten en las fuentes fundamentales de la productividad y el poder, debido a las nuevas condiciones tecnológicas que surgen en este período histórico” [5]. Más adelante precisa: “Lo que caracteriza a la revolución tecnológica actual no es el carácter central del conocimiento y la información, sino la aplicación de ese conocimiento e información a aparatos de generación de conocimiento y procesamiento de la información/comunicación, en un círculo de retroalimentación acumulativo entre la innovación y sus usos”. Y acota: “La difusión de la tecnología amplifica infinitamente su poder cuando sus usuarios se la apropian y la redefinen. Las nuevas tecnologías de la información no son sólo herramientas que aplicar, sino procesos que desarrollar. (...) Por primera vez en la historia, la mente humana es una fuerza productiva directa, no sólo un elemento decisivo del sistema de producción” [6]. En cuanto a la sociedad del conocimiento, en una publicación posterior señala: “se trata de una sociedad en la que las condiciones de generación de conocimiento y procesamiento de información han sido sustancialmente alteradas por una revolución tecnológica centrada en el procesamiento de información, en la generación del conocimiento y en las tecnologías de la información”[7]. Yves Courrier, refiriéndose a Castells, diferencia los dos términos de esta forma: “sociedad de la información” pone el énfasis en el contenido del trabajo (el proceso de captar, procesar y comunicar las informaciones necesarias), y “sociedad del conocimiento” en los agentes económicos, que deben poseer cualificaciones superiores para el ejercicio de su trabajo [8]. Con respecto a las visiones, se destacan los documentos que resultaron de la CMSI, por surgir de un proceso mundial. La Declaración de Principios de Ginebra[9], adoptada por los gobiernos -con significativos aportes de la sociedad civil-, expresa en su primer artículo: “Nosotros (...) declaramos nuestro deseo y compromiso comunes de construir una Sociedad de la Información centrada en la persona, integradora y orientada al desarrollo, en que todos puedan crear, consultar, utilizar y compartir la información y el conocimiento, para que las personas, las comunidades y los pueblos puedan emplear plenamente sus posibilidades en la promoción de su desarrollo sostenible y en la mejora de su calidad de vida, sobre la base de los propósitos y principios de la Carta de las Naciones Unidas y respetando plenamente y defendiendo la Declaración Universal de Derechos Humanos.” Por su parte, la Declaración de la Sociedad Civil[10] extiende su visión sobre varios párrafos, pero lo esencial dice: “Nos comprometemos a constituir sociedades de la información y la comunicación centradas en la gente, incluyentes y equitativas. Sociedades en las que todas y todos puedan crear, utilizar, compartir y diseminar libremente la información y el conocimiento, así como acceder a éstos, con el fin de que particulares, comunidades y pueblos sean habilitados y habilitadas para mejorar su calidad de vida y llevar a la práctica su pleno potencial”. A continuación, esta Declaración añade los principios de justicia social, política y económica, y de la plena participación y habilitación de los pueblos; destaca los objetivos de desarrollo sostenible, democracia e igualdad de género; y evoca sociedades en donde el desarrollo se enmarque en los derechos humanos fundamentales y esté orientado a lograr una distribución más equitativa de los recursos. Debates en curso Una de las metas de la convocatoria de la primera fase de la CMSI era justamente la de desarrollar una visión común de la sociedad de la información. Aunque buena parte de las delegaciones gubernamentales y del sector privado le dieron poca importancia a este aspecto, para muchas organizaciones de la sociedad civil se trataba de un aspecto clave, pues allí tenía lugar la disputa de sentidos, poniéndose en evidencia la confrontación de proyectos de sociedad. De hecho, todo el proceso ha estado cruzado por -al menos- dos enfoques distintos, que a grandes rasgos se pueden resumir de la siguiente manera : Para el primer enfoque, hablar de sociedad de la información se refiere a un nuevo paradigma de desarrollo que asigna a la tecnología un rol causal en el ordenamiento social, ubicándola como motor del desarrollo económico. Para los países en desarrollo, este discurso implica que la transición hacia la sociedad de la información es esencialmente una cuestión de tiempo y de decisión política para crear las “condiciones habilitadoras” adecuadas [12]. Algo parecido sucedería con relación a los sectores sociales afectados por la brecha digital, a los cuales habría que incluir mediante programas de acceso universal. Al colocar a la tecnología en el centro de este modelo, la industria de telecomunicaciones aparece como la llamada a liderar su desarrollo; mientras que la industria productora de servicios y contenidos digitales asume una influencia inédita[13]. El segundo enfoque, que impugnó a este primero en el proceso de la Cumbre, sostiene que la nueva etapa del desarrollo humano en la cual estamos entrando se caracteriza por el predominio que han alcanzado la información, la comunicación y el conocimiento en la economía y en el conjunto de las actividades humanas. Según este enfoque, la tecnología es el soporte que ha desencadenado una aceleración de este proceso; pero no es un factor neutro, ni su rumbo es inexorable, puesto que el propio desarrollo tecnológico es orientado por juegos de intereses. Siguiendo esta perspectiva, las políticas para el desarrollo de la sociedad de la información deben centrarse en los seres humanos, deben concebirse en función de sus necesidades y dentro de un marco de derechos humanos y justicia social[14]. Los países en desarrollo y los actores sociales deberían tener un rol clave en la orientación de dicho proceso y de las decisiones. En otras palabras, para este segundo enfoque, lo fundamental no es “información” sino “sociedad”. Mientras la primera hace referencia a datos, canales de transmisión y espacios de almacenamiento, la segunda habla de seres humanos, de culturas, de formas de organización y comunicación. La información se determina en función de la sociedad y no a la inversa. Por ello, la Campaña por los Derechos a la Comunicación en la Sociedad de la Información -CRIS- señala en el documento sobre la CMSI “La Pregunta para la Sociedad Civil de cara a la CMSI”[15] señala: “Si la sociedad civil va a adoptar y rescatar la noción de una sociedad de la información, debe regresar a estas nociones básicas, planteando las preguntas correctas: ¿Quién genera y posee la información y el conocimiento? ¿De qué manera está valorizado? ¿De qué manera es difundido y distribuido el conocimiento? ¿Quiénes son los guardianes? ¿Qué limita y facilita el uso del conocimiento por parte de la gente para lograr sus metas? ¿Quién está mejor y peor posicionado para aprovechar este conocimiento?” Formulaciones alternativas en debate Dado el predominio adquirido por el término “sociedad de la información”, las formulaciones alternativas tienden a tomarla como referente para demarcarse. Una primera objeción tiene que ver con la palabra “sociedad” en singular, como si se tratara de una sociedad mundial uniforme. Se propone como alternativa hablar de “sociedades” (en plural) de la información o del conocimiento. Varios documentos de la UNESCO se refieren a “sociedades del conocimiento” (o del saber). Esta idea fue recogida por actores de la sociedad civil que participaron en la Cumbre y que adoptaron el término “sociedades” en sus documentos de consenso. En cuanto a “información”, el argumento que aportó Antonio Pasquali (2002)[16] tuvo bastante eco en la sociedad civil en la Cumbre: “Informar connota por lo esencial mensajes unidireccionales causativos y ordenadores con tendencia a modificar el comportamiento de un perceptor pasivo; Comunicar, la interrelación de mensajes relacionales, dialogales y socializantes entre interlocutores igualmente habilitados para una libre y simultánea recepción/emisión. Si la Información tiende a disociar y jerarquizar los polos de la relación, la Comunicación tiende a asociarlos; sólo la Comunicación puede dar nacimiento a estructuras sociales” (énfasis del autor). Y de hecho, los documentos de consenso de la sociedad civil adoptaron la fórmula “sociedades de la información y la comunicación”, para demarcarse de la visión tecnocéntrica presente en el discurso oficial, sin perder la referencia al tema de la Cumbre. Se podría considerar que esta opción fue un gesto importante en el contexto de la CMSI, pero no deja de ser una formulación pesada para el uso corriente. En cuanto al debate en torno a “sociedad del conocimiento”, quienes lo defienden consideran que evoca justamente una visión más integral y un proceso esencialmente humano. Otros, sin embargo, la objetan por la asociación con el concepto dominante, que reduce el conocimiento a su función económica (la noción, por ejemplo, del “knowledge management” en las empresas, que apunta esencialmente a cómo recabar y sacar provecho de los conocimientos de sus empleados); o que valora solamente el tipo de conocimiento supuestamente objetivo, científico y digitalizable en desmedro de aquellos que no lo son. Una variante interesante, que surgió en el marco de los debates en torno a la CMSI, si bien tuvo poco eco en el proceso, es la de “sociedad(es) del saber compartido” o “de los saberes compartidos”. Fue propuesta, entre otros, por Adama Samassékou (en ese entonces presidente del buró de la CMSI), quien dijo de la sociedad de la información: “Es importante comprender qué cubre este concepto: no se trata de una información que se difunde y se comparte sino más bien de una sociedad en la que se quiere comunicar de otra manera y compartir un saber. Se trata, pues, de una sociedad del saber compartido y del conocimiento”[17]. Definiciones alternas El concepto de “sociedad de la información”, nacido bajo los preceptos de la globalización neoliberal, sobrentiende que en adelante serán las “revoluciones tecnológicas”, las que determinen el rumbo del desarrollo; los conflictos sociales serían cosa del pasado. Por lo mismo, este concepto no es el más adecuado para calificar las nuevas tendencias de las sociedades, ni mucho menos para describir un proyecto contrahegemónico de sociedad. Nuestro planteamiento es que, más allá de debatir lo apropiado de tal o cual término, lo fundamental es impugnar y deslegitimar cualquier término o definición que refuerce esta concepción tecnocéntrica de la sociedad. No pretendemos aquí proponer una fórmula alternativa, sino, más bien, presentar algunos criterios para alimentar el debate. Primero, acogemos la noción de que cualquier referencia a “sociedades” debe hacerse en plural, reconociendo la heterogeneidad y diversidad de las sociedades humanas. Ello implica también reafirmar el interés de que cada sociedad se apropie de las tecnologías para sus prioridades particulares de desarrollo y no que deba adaptarse a ellas para poder ser parte de una supuesta sociedad de la información predefinida. Segundo, afirmamos que cualquier definición que use el término “sociedad” no puede describir una realidad circunscrita a Internet o a las TIC. Internet puede ser un nuevo escenario de interacción social, pero esta interacción está estrechamente integrada al mundo físico y los dos ámbitos se transforman mutuamente. Por último, apostamos por un proyecto de sociedad donde la información sea un bien público, no una mercancía, la comunicación un proceso participativo e interactivo, el conocimiento una construcción social compartida, no una propiedad privada, y las tecnologías un soporte para todo ello, sin que se conviertan en un fin en sí. Notas y referencias [1] Bell, Daniel. The coming of post-industrial society; a venture in social forecasting. - New York, Basic Books [1973]. - xiii, 507 p. illus. 25 cm. [traducción: Advenimiento de La Sociedad Post-Industrial . - Alianza (January, 1992). - ISBN: 8420621498.] [traducción: Vers la société post industrielle. - Robert Laffont, 1976]. [2] Esta imagen de las TIC como factor desencadenante de democracia y desarrollo -y la visión tecnocéntrica subyacente- fue popularizada en la primera mitad de los 90s, entre otros, por el entonces vicepresidente de EE.UU, Al Gore, a quien se le atribuye haber acuñado los términos “superautopista de la información” (information superhighway) e “Infraestructura Global de la Información” (Global Information Infrastructure). [3] Towards Knowledge Societies. An Interview with Abdul Waheed Khan, World of Science Vol. 1, No. 4 July-September 2003, UNESCO’s Natural Sciences Sector. http://portal.unesco.org/ci/en/ev.p... [4] Gorz André. - L’immatériel. - Galilée, 2004. - citación p. 13. [5] Castells, Manuel. - La Era de la Información: Economía, Sociedad y Cultura: La sociedad Red, México, Siglo XXI, 1999. citación: p. 47. [6] idem citación p. 58. [7] Castells, Manuel. 2002 “La dimensión cultural de Internet”, Universitat Oberta de Catalunya, julio. http://www.uoc.edu/culturaxxi/esp/a... [8] Courrier, Yves, “Société de l’information et technologies”, http://www.unesco.org/webworld/poin... [9] CMSI (2003). “Declaración de Principios”, Ginebra, diciembre, http://www.itu.int/wsis/documents/d... [10] CMSI (2003). “Construir sociedades de la información que atiendan a las necesidades humanas”, Declaración de la Sociedad Civil, Ginebra, diciembre. http://alainet.org/active/show_text... [11] Bajo este concepto, hubo incluso quienes llegaran a sostener que la “sociedad de la información”, estaría circunscrita al ámbito digital: lo que no está digitalizado no sería parte de esta nueva sociedad. [12] Una mirada hacia la historia desmiente esta teoría del desarrollo. Como lo argumenta Yves Courrier (s/f), en los países desarrollados “fue la demanda de fines de los años setenta ocasionada por el desarrollo del sector terciario y el crecimiento palpable de una población con acceso a la educación superior lo que permitió el desarrollo de un mercado de TIC (...) No fue el desarrollo de las TIC lo que permitió pasar de la sociedad industrial a la sociedad de la información. Las tecnologías vinieron después, para facilitar y multiplicar los efectos del paso a la sociedad de la información”, basándose en una infraestructura material y humana sofisticada. “Para muchos países en desarrollo, donde ciertos factores esenciales de esta infraestructura son inexistentes, las tecnologías no pueden tener efectos similares”. [13] Esta visión “centrada en el mercado- es la que predomina en el Plan de Acción de la Cumbre (CMSI 2003-b), incluso desde el primer párrafo, que expresa que “la visión común y los principios fundamentales de la Declaración de Principios se traducen en líneas de acción concretas para alcanzar los objetivos de desarrollo acordados (...) mediante el fomento del uso de productos, redes, servicios y aplicaciones basados en las tecnologías de la información y las comunicaciones (TIC)”. (Las cursivas son nuestras). En: CMSI (2003 b). “Plan de Acción”, Ginebra, diciembre, http://www.itu.int/wsis/documents/d... [14] Al respecto, en una ponencia en la Conferencia Regional Américas de la Cumbre, señalamos: “Considerar a la sociedad de la información como una dimensión separada de la realidad, que requiere de un marco legal y regulatorio exclusivo, podría incluso ser peligroso. ¿Vamos a definir otra ciudadanía que habite ese otro mundo? ¿Cuáles serán los parámetros democráticos que rijan el debate, la definición, el control y la vigilancia de este marco legal? Si bien puede ser cierto que las particularidades del ciberespacio hacen necesarios otros mecanismos de implementación de las leyes y reglamentos, cuestionamos la conveniencia de dotarle de un marco legal propio”. En: Burch, Sally. “CRIS en la Conferencia Ministerial Regional preparatoria sobre la Sociedad de la Información”, Enero 2003. http://alainet.org/docs/3047.html [15] Campaña CRIS (2003). “La Pregunta para la Sociedad Civil”, Documento temático No. 1, http://movimientos.org/foro_comunic... [16] Pasquali, Antonio (2002) “Cumbre Mundial de la Sociedad de la Información: Dos precauciones a tomar”, junio. http://www.movimientos.org/foro_com... Esta ponencia fue presentada en el “Encuentro Latinoamericano: ¿Y por qué no una sociedad de la comunicación”, preparatorio de la Cumbre, Quito, junio 2002. http://movimientos.org/foro_comunic.... Fue presentada por ALAI en el primer Comité Preparatorio de la Cumbre de julio 2002. [17] Citado en el resumen del evento: “Cooperación, diversidad y paz”, II Coloquio de los Tres Espacios Lingüísticos, México, 2-4 de abril de 2003. http://www.3el.refer.org/rubriqueES... Lecturas complementarias Burch, Sally et al, 2004. “Se cayó el sistema”: Enredos de la Sociedad de la Información, ALAI, Quito. Mattelart, Armand (2001) Histoire de la societé de l’information, Editions La Découverte. Mattelart, Armand (2002) “La Communication à l’assaut de la culture, L’empire des médias”, Manière de Voir, No. 63, Paris, Le Monde Diplomatique, mai-juin. Picardo, Óscar “El escenario actual de las ciencias sociales: la sociedad del conocimiento”, Universitat Oberta de Catalunya, Biblioteca virtual http://www.uoc.edu/dt/20318/index.html Siggaard Jensen, Hans “History of the concept of knowledge”, http://www.kursus.kvl.dk/shares/soa... Unesco, “Building knowledge societies: some preliminary points of reflexion”, http://unesdoc.unesco.org/images/00... Unesco, L’UNESCO promeut les ‘sociétés du savoir’ pour maximiser l’impact des technologies de la communication,03-10-2003 http://portal.unesco.org/ci/fr/ev.p... Valenduc, Gerard (2002) Nouvelles technologies, nouvelle economie et cycles longs, Mondialisation: Comprendre pour Agir, Bruxelles, Belgique, Coédition GRIP- Complexe. Ziegler, Jean (2002) Les Nouveaux Maîtres du Monde et ceux qui leur résistent, París, Fayard. Gobernanza en red y gobernanza electrónica Partha Pratim Sarker La evolución del término “gobernanza en red” o “gobernanza electrónica” tiene que verse en la intersección de dos grandes movimientos - gobernanza y revolución de la información. Hace algún tiempo se viene hablando del tema de la “gobernanza”. Según el Concise Oxford Dictionary (9na Edición), la palabra “gobernanza” proviene de la voz griega “kuberna”, que significa “dirigir”. Los primeros ensayos de las ciencias políticas clásicas sobre el tema hacían referencia al concepto de “gobernabilidad” que convirtió al estado de derecho en la piedra angular del desarrollo [1]. La toma de conciencia antecede a la tecnología Sin embargo, el concepto comenzó a tomar otro significado con la interacción de tres actores -el Estado, el mercado y la sociedad civil- en el período posterior a la Segunda Guerra Mundial. Un cuarto de siglo después de la Guerra Fría, era muy evidente que el mercado, por sí solo, no podría asegurar el crecimiento, y que en realidad el Estado tenía una función que cumplir. En Occidente, John Maynard Keynes justificó teóricamente el hecho de que el Estado manipulara los precios y combatiera el desempleo y las crisis comerciales. Los Estados socialistas adoptaron y consolidaron sistemas de planificación centralizada. En el Tercer Mundo, el Estado también asumió la función de proyectista, fomentador, promotor y director del esfuerzo de desarrollo acelerado. Por consiguiente, los Estados no solo tenían que asumir un papel central, sino también habían creado sus propias empresas. Pero el hecho de tratar las entidades comerciales con objetivos sociales dificultaba la competencia en igualdad de condiciones dentro la economía. Por consiguiente, se expandieron la corrupción y las pérdidas de las empresas. En muchos Estados donde el régimen tributario era regresivo, las pérdidas fueron asumidas principalmente por los pobres. Esto condujo al descontento y a la desilusión por las políticas intervencionistas y a una demanda de privatización que alejó al Estado de su papel central. Sin embargo, el sector privado, por sí solo, no podría tener en cuenta los aspectos de la distribución que llevaron a replantearse el desarrollo como crecimiento económico en primer lugar. La imposibilidad de que las ganancias económicas produjeran niveles aceptables de redistribución, reducción de la pobreza y libertades políticas despertó a la sociedad civil [2]. El término “gobernanza” se introdujo en el discurso sobre el desarrollo alrededor del período de finales de los años ochenta. El Informe de Desarrollo Humano de 1991 [3] acepta el hecho de que la libertad y la democracia, aunque no sean una condición necesaria, son completamente consecuentes con el crecimiento y el desarrollo. El “desarrollo internacional” cambió su enfoque de los años cincuenta (décadas de desarrollo de la ONU), de “crecimiento económico” por el de “desarrollo humano sostenible”, lo que provocó que las preocupaciones por las personas y la naturaleza sean aceptadas ampliamente por el Estado, el mercado y la sociedad civil. El movimiento medioambiental ha planteado que la “gobernanza” es una urgencia para llevar a cabo las agendas de desarrollo de manera holística: incluye no sólo al sector en cuestión y las partes involucradas obvias, sino también a los demás afectados en otras áreas. Ha forzado una redefinición del interés público en la que se reconoce a la propia naturaleza como participante. La globalización influye en los argumentos de los sistemas reguladores, en el sentido de que, teóricamente, los gobiernos tienen que crear condiciones iguales para los diferentes participantes, de manera tal que exista una situación en la que todos ganan. La idea es definida por los “participantes” y por las “instituciones”. Los participantes se esfuerzan por lograr un máximo poder discrecional, mientras las instituciones regulan la conducta de esos participantes. Cuánto tiempo esos ejercicios reguladores pudieran continuar manteniendo esa posición o, en su lugar, convertirse en una “intervención” es un debate diferente, pero la razón fundamental era esta “interacción” - un concepto que ha sido incorporado en la definición de gobernanza en red. La emergencia de las nuevas tecnologías de la información y las comunicaciones (TIC), también tuvo un impacto profundo en el desarrollo de la gobernanza en red. Por primera vez en los últimos dos siglos, las TIC reemplazaron dos elementos básicos de la producción - “obrero” y “capital” - por “información” y “conocimiento” [4]. Internet significó un avance tan importante como el de la imprenta en el siglo XV. Ofrece la posibilidad de comunicar, compartir, distribuir, intercambiar, formalizar, usar y poner en red la información a una velocidad nunca antes experimentada. La ley de Moore [5] señaló que el poder de procesamiento de los microchips se duplica cada 18 meses mientras que el precio de las computadoras decrece en un 20-30%, teniendo en cuenta el ajuste de la calidad.. Esto significa que las computadoras son cada vez más baratas, potentes y ubicuas, lo que posibilita gobernar la red y la automatización de servicios. Por otro lado, el activismo político también está utilizando el espacio con un creciente número de grupos de interés público, organizaciones comunitarias o voluntarias que están propagando sus demandas y actividades en la red electrónica. Los principios weberianos de gobernanza burocrática [6] se están reemplazando por las tendencias de gobernanza horizontal, lineal, dinámica y en red. La reforma administrativa y el desarrollo experimentaron la gestión de la calidad total (TQM por sus siglas en inglés) [7] en los años ochenta, y la “reingeniería y reinvención del gobierno” en los años noventa. La gobernanza en red refleja este proceso de reinvención y reingeniería en la gobernanza y “apunta a adaptar la administración al flujo cada vez más creciente de información: acelerando el proceso de toma de decisiones con una optimización de los recursos, y haciendo que el mecanismo de toma de decisiones se autorregule” [8]. Esto ha llevado a que la “gobernanza” se defina independientemente desde “la acción de gobernar” hasta la práctica de obtener el consentimiento y la cooperación de los gobernados. El objetivo concreto de la gobernanza electrónica es apoyar y simplificar la gobernanza para todas las partes - gobierno, ciudadanos y empresas. Algunos plantean que este modo de gobernanza en red “utiliza medios electrónicos para apoyar y estimular la buena gobernanza” [9]. Sin embargo, lo que significa “buena” es un fenómeno relativo y varía considerablemente en la práctica y en la realidad. Por ejemplo, el Dr. Thomas F. Gordon, del “eGovernment Competence Center”, plantea que es la calidad y la eficiencia de todas las fases del ciclo de vida de la legislación, que se refleja en la corrección, la consistencia, la transparencia y la eficiencia de las transacciones (del gobierno). Mientras, por otro lado, el “Informe de la ONU de la Reunión del Grupo Ad Hoc de Expertos sobre la gobernanza electrónica y los cambios en las estructuras administrativas” sugiere que la gobernanza en red se aleja del gobierno burocrático tradicional, pero puede o no promover la buena gobernanza. “Pueden servir para reforzar, de forma maligna o benigna, las ineficientes e inefectivas prácticas gubernamentales existentes o introducir nuevas “formas de hacer negocios” que incluyan a los participantes del sector privado, a quienes poco preocupa el interés público” [10]. El surgimiento de guías y de principios de acción para la gobernanza electrónica Tanto la gobernanza en red como la gobernanza electrónica son una idea emergente y se basan en el rechazo a la gobernanza burocrática, que no responde a los imperativos de la sociedad del conocimiento, a las realidades de un mundo más interconectado y complejo, a la naturaleza interdisciplinaria de la política actual y a las herramientas de las TIC. Pero la red no es solo un sitio Web o una digitalización del mecanismo de prestación de servicios. En realidad, consiste en una definición más amplia del compromiso y la profundidad de las relaciones entre los ciudadanos y el gobierno [11]. En este sentido también es importante establecer una diferencia de significado entre gobernanza y gobierno. La gobernanza es la manera o el proceso de guiar a una sociedad a lograr mejor sus metas e intereses, mientras el gobierno es la institución o el instrumento para realizar ese trabajo. Esto significa que el gobierno es uno (de los muchos) ejemplos de la gobernanza. Resulta interesante que los diferentes organismos internacionales destaquen el tema de la gobernanza según sus intereses y objetivos inminentes. El término más empleado por ellos es “gobernanza electrónica”. Por ejemplo, la preocupación del Banco Mundial con respecto a la gobernanza se relaciona exclusivamente con la contribución que hace al desarrollo social y económico mediante la liberalización económica y estructural. Por consiguiente, para ellos, la gobernanza electrónica implica el uso de los canales de TIC para cambiar la forma en que los ciudadanos y las empresas interactúan con el gobierno para posibilitar la participación de los ciudadanos en la toma de decisiones, un mayor acceso a la información, más transparencia y el fortalecimiento de la sociedad civil [12]. El PNUD (Programa de las Naciones Unidas para el Desarrollo) relaciona el concepto de gobernanza con el de desarrollo humano sostenible. Considera que la gobernanza electrónica es un proceso de “creación de valor público con el empleo de las modernas TIC”. El valor público está definido como una noción “arraigada en las preferencias de las personas”. La gobernanza electrónica se justifica si amplía la capacidad de la administración pública de aumentar la entrega de valor público - el resultado de una alta calidad de vida. Más enfocado en las posibilidades de la “gobernanza”, considera que la gobernanza electrónica puede “equipar a las personas para una participación genuina en un proceso político inclusivo que puede producir un consentimiento público bien informado, la base cada vez más prevaleciente para la legitimidad de los gobiernos”. [13] Los Cinco Principios Rectores de la ONU con respecto a los objetivos de la gobernanza electrónica son: [14] 1. Crear servicios relacionados con las decisiones de los ciudadanos. 2. Hacer que el gobierno y sus servicios sean más accesibles. 3. Promover la inclusión social. 4. Proporcionar información de manera responsable. 5. Emplear las TI y los recursos humanos de manera efectiva y eficiente. El Grupo de Administración Pública (PUMA por sus siglas en inglés) de la Organización para la Cooperación y el Desarrollo Económico (OCDE) se centra en tres elementos principales de la gobernanza electrónica en línea y participativa: “la información, la participación activa y la consulta” [15]. El gobierno de la India se basó en SMART para plantear su punto de vista sobre la gobernanza electrónica. Este se refiere a “la aplicación de las TI al proceso de funcionamiento del gobierno para lograr una gobernanza simple, moral, responsable, sensata y transparente (SMART por sus siglas en inglés)” [16]. Esta visión ayudó a la India a trazar otros objetivos e iniciativas estratégicas sobre la gobernanza electrónica. Rogers W’O Okot-Uma, de la Secretaría de la Mancomunidad Británica de Naciones en Londres, considera que la gobernanza electrónica tiene el objetivo de materializar procesos y estructuras para aprovechar las potencialidades de las tecnologías de la información y las comunicaciones (TIC) en varios niveles de gobierno y del sector público y mucho más [17]. De cualquier manera, la gobernanza en red funciona a través de un instrumento en red en que la política se implementa mediante consulta, las organizaciones trabajan como coproductores en el proceso de toma de decisiones y de implementación. Pero, ¿cuál es esa red que es esencial para esta gobernanza? El informe de las Naciones Unidas de 1994 ofrece una respuesta interesante que confronta, posteriormente a Jones, Hesterly y Borgatti [18], las diversas definiciones de la noción de red en el ámbito de la gobernanza. Jones, Hesterly y Borgatti (1997) definen las redes como interacciones sistemáticas “entre unidades autónomas involucradas en la creación de productos y servicios sobre la base de contratos implícitos o indefinidos” para adaptarse a las contingencias ambientales y para coordinar y salvaguardar los intercambios. Dubini y Aldrich (1993) y Kreiner y Schultz (1993) describen las redes como “modelos de colaboración entre individuos y organizaciones”. Larson (1992) y Liebeskind, Oliver, Zucker y Brewer (1996) enfatizan los intercambios a largo plazo basados en la confianza y los intereses mutuos. Powell (1990) agrega que las redes se basan en “intercambios horizontales”. Grandori y Soda (1995) hacen énfasis en las “redes que proporcionan conexiones entre las partes correspondientes que participan en intercambios mutuos”. Gobernanza en red y administración electrónica La gobernanza en red se asemeja y se diferencia desde el punto de vista conceptual de la gobernanza electrónica - algo que parece confundir a muchos analistas. La gobernanza en red enfatiza en la soberanía de las unidades (en el Estado) cuyas interacciones facilitan o inhiben el funcionamiento de todo el sistema. La “gobernanza electrónica” que se practica en la actualidad puede enfatizar o no en esa soberanía y no puede centrarse principalmente en la interacción. Por ejemplo, la iniciativa de gobernanza electrónica puede dar la oportunidad de descargar el contenido elaborado por agencias gubernamentales, mientras la gobernanza en red pone a los ciudadanos en contacto para permitirles aprender, debatir y participar en los temas de elaboración de políticas. Prácticamente, todo el valor de una red es trabajar en gobernanza. La gobernanza en red puede representar una forma de gobernanza electrónica y no abarcar todas las formas avanzadas de tecnología que utiliza la gobernanza electrónica. Incluso, algunos plantean que el concepto de gobernanza en red es independiente de las tecnologías de la información y la comunicación (TIC). Para ellos, más bien representa una reforma de la administración pública, sea apoyada por la tecnología o no. La gobernanza electrónica no se ocupa del acuerdo o del consenso mutuamente acordado, o al menos deja que ese asunto sea gestionado por las instituciones. Entretanto, en el caso de la gobernanza en red, el objetivo es encontrar un consenso en la diversidad. El intento de desarrollar el “conocimiento consensuado” puede favorecer al mínimo denominador común como resultado eventual de la política. Además, las redes no solo adicionan recursos, sino también están estructuradas para beneficiarse del hecho de que cada sector participante aporte diferentes recursos al debate. Sin embargo, también es cierto que lograr el consenso puede ser un proceso lento y costoso, particularmente en un entorno conflictivo. Muchos plantean que la misión de la gobernanza electrónica es acercar las administraciones nacional, regional y local a las personas comunes para ofrecer servicios eficaces y eficientes. Esto significa que el gobierno brinda servicios a los ciudadanos, pero se pone menos énfasis en cómo los ciudadanos participan y toman decisiones en el proceso democrático. El concepto de gobernanza electrónica hace pensar en una interacción en ambos sentidos y promete una interacción más amplia con los ciudadanos. Pero en la literatura sobre la gobernanza electrónica sigue siendo incierto el cuándo y cómo se haría. En realidad, los gobiernos se centran principalmente en la prestación electrónica de servicios y pueden evitar los aspectos polémicos de la buena gobernanza (tales como democracia, participación, igualdad, etcétera). Algunos también piensan que el desarrollo de la gobernanza electrónica conducirá inevitablemente a la democracia electrónica. Clift considera que a medida que los gobiernos presten más servicios en línea se producirá un cambio extraordinario en la voluntad de los ciudadanos de usar las diferentes herramientas de la democracia electrónica. Pero el simple hecho de que el gobierno participe en actividades en línea con los ciudadanos no significa necesariamente que se producirá un mecanismo de democracia electrónica [18]. La gobernanza electrónica, en los casos en que se refiere a una “ciudadanía más comprometida e interactiva”, se aproxima prácticamente a la gobernanza en red. Pero puede ser que a los gobiernos u órganos legislativos, que por lo general se resisten al “cambio”, les resulte difícil la transición. El compromiso, el cambio de actitud o el liderazgo que requiere estimulan el debate acerca de cómo el gobierno puede manejar esta situación. El mayor obstáculo que tendrán que resolver los gobiernos para enfrentar este nuevo desafío será desarrollar medios administrativos y un servicio de gestión consistente en recursos, fondos y personal suficientes para lograrlo [19]. La falta de compromiso político puede aumentar, particularmente en los casos en que la gobernanza electrónica no está al servicio de los intereses políticos propios de los principales participantes, aun cuando estén presentes otros factores. Por otra parte, en un modo de gobernanza en red, el Estado es una de las muchas organizaciones (entre las que se incluyen el sector público y el privado, las sociedades civiles, etcétera) y todas esas organizaciones actúan con considerable independencia. El papel tradicional del Estado se ve limitado solo a una posición de seguimiento o a un papel de facilitador. Si la gobernanza electrónica o la gobernanza en red se implican a una mayor participación de los ciudadanos a través de los medios digitales, habría entonces que inquietarse de la brecha digital. Las causas de la “brecha digital” no son técnicas, sino socioeconómicas. Por consiguiente, existen aspectos relacionados con el acceso, la conectividad, la educación, la habilidad, la capacidad de financiamiento, etc., que continúan siendo los elementos esenciales subyacentes de la gobernanza electrónica. El Informe Mundial del Sector Público 2003 de la ONU, (E-Government at the Crossroads) sugiere tres requisitos previos para la gobernanza electrónica: un mínimo de infraestructura tecnológica, capital humano y conectividad - para todos. Por tanto, “el desafío primario del gobierno electrónico para el desarrollo es cómo lograrlo” - plantea el informe. La gobernanza en red y la gobernanza electrónica son un proceso, no un fin decisivo de la evolución de su significado. Tampoco implica una trayectoria estándar de progresión. Por consiguiente, los países necesitan encontrar la manera que mejor se ajuste a ellos y deben participar en un proceso de “diálogo, aprendizaje, creación de capacidades y facilitación” [20] - que es un enfoque de “aprender haciéndolo”. El concepto de la gobernanza en red es relativamente nuevo, y es necesaria una idea más estructurada para evaluar sus dinámicas. “Algunos críticos malinterpretan las redes como simples productos de la tecnocracia, mientras otros pueden referirse ingenuamente a las redes multisectoriales como la solución a todos los problemas” [21]. La gobernanza electrónica, cuya base radica fundamentalmente en las TIC, a menudo se aleja de la gobernanza real. Como planteara Richard Heeks, “la gobernanza electrónica puede ser poco útil si sugiere, erróneamente, que la aplicación de las TIC es un fin en sí misma. Puede ser que resulte más apropiado hablar de gobernanza integrada o, quizás, de gobernanza inteligente que prioriza los objetivos de la gobernanza y considera las TIC como una parte de los medios para lograr esos objetivos conjuntamente con las personas, los procesos y la información. La dimensión de “mercado” de la gobernanza electrónica se distingue claramente de su dimensión “económico-política”. Por ejemplo, el Banco Mundial hace un llamado a los gobiernos a “crear un marco legal e institucional para la transparencia, previsibilidad y la competencia, así como la gestión del desarrollo económico”. El argumento es que, teniendo en cuenta que el mercado es el equilibrio fundamental, este rectificará con el tiempo las preocupaciones de la distribución desigual, mientras que el gobierno es quien debe proporcionar condiciones iguales para todos en el mercado, liberalizando el marco económico e institucional. Los ejemplos apuntan a medios electrónicos anteriores (tales como la radio, la televisión, etcétera) y otras formas de infraestructura, tales como la distribución de electricidad, el tratamiento de aguas residuales, la educación pública, el servicio telefónico, etc., que benefician a toda la sociedad. Por otro lado, la dimensión “económico-política” de la gobernanza electrónica se refiere al desarrollo humano sostenible que no puede ser solo un subproducto o una decantación de los logros económicos. Como plantea el PNUD, la gobernanza legítima constituye “un marco de la administración pública basado en el estado de derecho, un sistema de justicia imparcial y eficiente, y una amplia participación popular en el proceso de gobernar y ser gobernado [22]. Por consiguiente, este es un punto de vista totalitario y busca integrar las estructuras y actividades organizativas de los gobiernos central, regional y local, el parlamento, la magistratura y las instituciones, organizaciones e individuos que constituyen la sociedad civil, el sector privado y, por último, las formas en que todas sus acciones influyen en la política pública para el bienestar público. De la gobernanza a la cooperación multi-actores Definitivamente, “multi-participacionismo”, o “red multisectorial”, es, en este sentido, un término relacionado. El multi-participacionismo surge del hecho de que el Estado no puede por sí solo abordar aspectos de interés público. Por consiguiente, un proceso poco regulado, que es flexible y de abajo arriba y tiene un mínimo de control gubernamental, puede involucrar a otros grupos (tales como el sector privado, la sociedad privada, las ONG, los académicos, etcétera) con una preocupación legítima por el bienestar común y el interés público. En la actualidad, diferentes organismos internacionales han comenzado a integrar el “multi-participacionismo” en sus procesos negociadores y diplomáticos. Por ejemplo, la Declaración de Ginebra (en la CMSI) ha introducido el “multiparticipacionismo” como un principio guía del proceso de la CMSI, y esta forma de interacción entre los diferentes participantes conducirá a una mayor eficiencia y a fomentar las innovaciones en la incipiente nueva diplomacia mundial del siglo XXI. La red multisectorial se utiliza más comúnmente para la gobernanza en red. Las redes multisectoriales tienden puentes a escala transnacional entre el sector público (gobiernos nacionales, regionales o estatales y locales, así como grupos intergubernamentales), el sector privado y la sociedad civil. Estas redes (a) reflejan los papeles cambiantes y la relativa importancia entre ellos; (b) reúnen diversos grupos y recursos, y (c) abordan temas que ningún grupo puede resolver por sí solo [23]. La democracia en red también es un término relevante. Douglas Rushkoff, en su artículo “Democracia de código abierto: cómo la comunicación en línea está cambiando las políticas fuera de línea”, [24] dio una interesante explicación sobre la democracia en red. Planteó: “El orden que subyace en los sistemas aparentemente caóticos sugiere que los sistemas pueden comportarse de forma mutuamente beneficiosa para todos los miembros, incluso sin una jerarquía de mando. El término que emplean los científicos para describir la auto-organización natural de una comunidad es “emergencia”. La asombrosa organización de un hormiguero “emerge” de abajo hacia arriba, en una demostración colectiva de los instintos de cada una de las hormigas. En cierto sentido, realmente no está organizado porque no hay una burocracia central. La conducta colectiva de la colonia es un fenómeno emergente”. Él considera que la emergencia de una cultura en red, acompañada por el conocimiento de los medios y el debate abierto, puede ser un primer paso para un sistema político más sensible. El corazón de ese sistema político sería la participación en red de los ciudadanos en los asuntos públicos. El autor también considera que el movimiento del software de “código abierto” puede ser un modelo para el proceso participativo a través del cual tendría lugar la legislación en una democracia en red. Por otro lado, la democracia electrónica se centra más en el aspecto tecnológico de la interacción. Steve Clift, estratega de la democracia en línea, describe la democracia electrónica como la “forma en que se puede utilizar Internet para mejorar nuestros procesos democráticos y proporcionar mejores oportunidades a los individuos y comunidades para interactuar con el gobierno y al gobierno para buscar la participación de la comunidad” [25]. El Centro Internacional de Teledemocracia de Escocia se centra en el uso de las nuevas TIC para llevar a cabo procesos mejorados de toma de decisiones democráticas, lo que aumenta la participación ciudadana específicamente a través de la consulta electrónica y las peticiones electrónicas. Ake Gronlund, de la Universidad de Umea, en Suecia, está preocupado porque las definiciones de democracia electrónica se centran a menudo en el uso y los proyectos de las TIC, y no en los procesos democráticos y la innovación institucional. Plantea que la democracia electrónica debe evaluarse en términos de sus procesos definitorios, no por la medida en que se emplean las TIC. “Gobernanza” es un término que rebasa el significado colectivo de algunos conceptos relacionados, como Estado, sociedad, gobierno, mercado, burocracia, etc. Incluye al Estado, pero también tiene en cuenta el papel de otros participantes de la sociedad. Si la “gobernanza electrónica” es el iniciador de este proceso, entonces, la “gobernanza en red” probablemente lo toma a un nivel en el que las organizaciones no solo están conectadas, sino que también son interdependientes al formar un grupo del proceso de elaboración de políticas. La gobernanza de Internet Carlos Afonso La primera fase de la Cumbre Mundial de la Sociedad de la Información (CMSI), que culminó en la reunión de Ginebra de diciembre de 2003, dejó dos temas cruciales pendientes. El primero de ellos apunta a cómo financiar la implementación adecuada de las tecnologías de información y comunicación para el desarrollo (TICD, o por sus siglas en inglés, ICT4D). Esto implica, sobre todo en los países menos desarrollados, la elevación de la tasa de rentabilidad en las áreas de infraestructura, capacitación y sustentabilidad, además de la inclusión digital. El informe final elaborado por un grupo de trabajo creado especialmente por la ONU (la Fuerza de Tarea en Mecanismos de Financiamiento, FTMF, o TFFM por sus siglas en inglés) se divulgó oficialmente en enero de 2005. El segundo tema se refiere a la gobernanza global de Internet - cómo crear, mejorar o adaptar mecanismos globales que permitan discutir los temas centrales derivados de la presencia cada vez más extensa de Internet en la economía, política, sociedad y cultura de todas las naciones. Temas como la definición y distribución de nombres de dominio y números IP, costos de conexión entre los países, derecho de acceso a la infraestructura y a la información, libertad de expresión, seguridad y uso adecuado, entre otros. A este respecto la ONU también creó, de acuerdo al Plan de Acción aprobado en la CMSI de Ginebra, un grupo internacional para abordar el tema - el Grupo de Trabajo sobre Gobernanza de Internet (GTGI, o WGIG por sus siglas en inglés), conformado por 40 miembros provenientes de varios países y de varios grupos de interés (gobiernos, sector privado, sector académico, organizaciones de la sociedad civil). El informe final del GTGI se presentó en sesión pública el 18 de julio en Ginebra. Ambos informes servirán de base para el proceso preparatorio de la segunda fase de la CMSI/WSIS, a ser realizada en Túnez en noviembre de 2005. La gobernanza global de Internet es un tema complejo, que involucra poderosos intereses. Después de todo, se trata de definir o perfeccionar la coordinación global de los diferentes componentes de la red, desde la infraestructura hasta los métodos adecuados de la eventual supervisión de contenido (que abarca temas que van desde la pornografía infantil hasta el uso indebido del e-mail para fraudes). Un consenso existe ya: de la manera en que está no puede continuar. No existe un foro mundial para establecer acuerdos efectivos en relación a Internet para compartir de una forma justa los costos de conexión entre países, para definir políticas eficaces contra el “spam” y el “phishing”, para garantizar la libertad de expresión, el derecho a la información y muchos otros derechos (y deberes) que, con la presencia inevitable de Internet en nuestras vidas - así como en la vida de las personas que no tienen acceso a la misma - pasan a ser cruciales. Un componente fundamental de la gobernanza es ejercido por una organización civil sin fines de lucro creada por el gobierno del presidente Clinton en California en 1998 (la Corporación de Internet para la Asignación de Nombres y Números, conocida por la sigla en inglés ICANN - Internet Corporation for Assigned Names and Numbers). Esta organización coordina la distribución mundial de nombres de dominio de primer nivel (tanto los globales, conocidos como gTLDs o sTLDs, tales como “.com”, “.net”, “.org”, “.aero”, entre otros; como los nacionales, o ccTLDs, tales como “.br”, “.iq”, “.fr”, entre otros), a través de la gestión de los servidores raíz que permiten asociar tales dominios a direcciones IP (números que identifican de forma inequívoca cualquier computador conectado a Internet) y, de esta manera, localizar los computadores respectivos en cualquier parte de Internet. La organización coordina al mismo tiempo, la distribución mundial de las direcciones IP y la adopción de los protocolos de comunicación utilizados por la red. Este conjunto de atribuciones de la ICANN es lo que se puede llamar como “gobernanza de la infraestructura lógica” de Internet. En realidad, esta gobernanza es llevada a cabo por lo que denomino el “sistema ICANN”. Una serie de mecanismos internos para consulta y orientación que se crearon en el interior de la organización, que contemplan la administración de los nombres de dominio globales (GNSO y una asamblea de usuarios no comerciales, la NCUC), la distribución de números IP (ASO/NRO), el espacio de los usuarios (ALAC), el espacio de los gobiernos (GAC), la organización de los administradores de dominios de país (ccNSO), entre otros. La ICANN y este conjunto de mecanismos orgánicos internos, además de algunos externos como la IETF, organismos afines como la ISOC, y por lo menos una empresa grande que ejerce el casi monopolio del comercio mundial de nombres de dominio globales (la Verisign), constituyen el “sistema ICANN” de gobernanza de la infraestructura lógica de la red - el único sistema global de gobernanza creado específicamente para Internet hasta el momento. El control sobre la ICANN es ejercido por el gobierno de EEUU a través de contratos que involucran a la propia organización, al gobierno federal y a la empresa Verisign. Uno de estos contratos, un memorándum de acuerdo (Memorandum of Understanding) entre la ICANN y el Departamento de Comercio, expirará a finales de septiembre de 2006 - significando esto que la ICANN empezaría a operar de manera más autónoma (aunque aún dependiente, como organización no gubernamental nacional, de las leyes federales de EEUU y del estado de California). Sin embargo, el gobierno de EEUU en declaración reciente acaba de dejar claro que aún con la expiración del memorándum, no permitirá que el control real sobre la infraestructura lógica deje de pertenecer a los Estados Unidos, alegando razones de “seguridad y estabilidad” de la red. El hecho es que el conjunto de los contratos mencionados permite que EEUU tenga base legal suficiente para tomar esta posición. Dicho de otro modo, la relación formal entre la ICANN y el Departamento de Comercio es de tal manera que la ICANN funciona como una concesionaria de servicios (“incumbent”) que depende de la regulación del gobierno federal de EEUU - igual que la relación entre una empresa de telecomunicaciones y la FCC (Comision federal de comunicaciones). En la práctica, es un hecho que el proceso de toma de decisiones sobre la creación, delegación y redelegación de nombres de dominio globales (gTLDs o sTLDs) es un proceso de negocios, con la ICANN actuando como una bolsa de valores (“bourse”) o como agente (“broker”), que aprueba o no una nueva combinación de letras como un “commodity”. Hoy, esta actividad consume prácticamente todo el tiempo y los recursos de la organización, que a su vez tiene su presupuesto financiado básicamente por el propio negocio de g/sTLDs haciendo a la ICANN intrínsecamente dependiente y parte interesada del negocio. Concluir que el proceso decisivo de cualquier nuevo gTLD o sTLD, o de redelegación de cualquiera de los ya existentes es influenciado por esta relación comercial, es trivial. No es otra la explicación del hecho que la ICANN haya arriesgado su pellejo en la aprobación de gTLD “.xxx”, inclusive con la oposición explícita o implícita de varios miembros del Consejo, e inclusive conociendo que habría resistencia de gobiernos y comunidades - en esa necesidad de recaudar más recursos para un presupuesto cada vez mayor, a través de los “registries” de g/sTLDs, la ICANN ignora que un dominio global involucra mucho más que el retorno de una inversión, requiriendo consideraciones de tipo extra-económica y tomando en cuenta que el GAC (gobiernos) es muy frágil para expresar estas visiones a tiempo o de manera efectivamente representativa. Por otro lado, una de las demandas mundiales es que la gobernanza de la red como un todo (y no sólo de su infraestructura lógica) pase a ser efectivamente global, democrática, transparente y pluralista - es decir, con representación de todos los grupos de interés en el proceso decisivo. Algunos países llegan a defender que la gobernanza de la infraestructura lógica se le entregue a la UIT/ITU (Unión Internacional de Telecomunicación), un organismo de la ONU en el que más de 180 gobiernos y cerca de 650 empresas de telecomunicaciones están representados, pero que no se caracteriza (como de otro modo cualquier otra agencia de la ONU) por la democracia, transparencia y pluralismo. A pesar de los esfuerzos de la ICANN para mostrar que es transparente y democrática, algunos resultados de su trabajo apuntan en otra dirección, como en el reciente caso de la “redelegación” del gTLD “.net”, y en el proceso de indicación de dirigentes, que es manipulado por miembros del propio comité de nombramiento de la organización - a pesar del hecho ya mencionado de que la organización es financieramente dependiente de las empresas que comercializan los nombres de dominio globales. La declaración reciente del gobierno de EEUU sólo contribuyó a profundizar la percepción mundial de esta dependencia de la organización al gobierno de los Estados Unidos. Es fundamental buscar organismos globales de gobernanza de un nuevo tipo, que puedan funcionar como foros de resolución de disputas y también como mecanismos de coordinación, recomendaciones y normatización sobre los diversos temas relacionados a la red (que van desde la administración de nombres y números hasta la libertad del conocimiento). Si esto significa una única organización o un conjunto de organizaciones globales, con estructuras diferenciadas para las diferentes funciones, está en discusión. El GTGI trató de analizar los diferentes escenarios de esta estructura y proponer algunas alternativas para el debate que tendrá lugar desde ahora hasta Túnez. Desafortunadamente las “propuestas” presentadas en el informe del GTGI no se abordaron con la suficiente profundidad y, ayudan poco en la precisión de todos los complejos detalles de un nuevo sistema de gobernanza y de la correspondiente convención internacional que lo legitime ante todos los gobiernos nacionales. Si existen dos consensos claros en el informe final del GTGI, son, en primer lugar, que la gobernanza mundial de cualquier componente de Internet no puede estar bajo la hegemonía de un único gobierno; en segundo lugar, que es necesario y urgente un fórum global, incluso si al principio tan sólo tenga funciones de consulta y resolución de disputas. Los miembros de organizaciones de la sociedad civil en el GTGI fueron decisivos en el proceso que coincidió para esta visión. En las propuestas presentadas por el GTGI, se espera que de algún modo la actual ICANN pueda convertirse en un organismo global efectivo, independiente y autónomo (posiblemente a través de un Acuerdo de Sede con el gobierno de EEUU) para incluirse en la nueva estructura de la gobernanza. Sin embargo, falta mucho más que la simple real internacionalización de la ICANN. Dos ejemplos entre los considerados por el GTGI como los componentes más importantes (entre más de 40 temas) de un futuro sistema global de gobernanza de Internet son ilustrativos: la interconexión internacional y la seguridad en el intercambio de mensajes. Si Internet es muchas veces considerada un espacio global horizontal de intercambio de información, la dura realidad muestra lo contrario en los aspectos claves de la red. La interconexión revela en la práctica una “cadena alimentaria” en cuyo tope están las grandes operadoras de las espinas dorsales de la red (“backbones”), de las cuales las multinacionales norteamericanas son las principales. Si la conexión física se rige por acuerdos internacionales de telecomunicaciones negociados en el ámbito de la UIT, lo mismo no sucede con la capa de transporte de datos. En realidad, lo que está en juego es quién paga por el ancho de banda de Internet entre países, en vista de que por lo general el costo involucra una conexión bidireccional (es decir, usuarios en cualesquiera de los países pueden tener acceso en principio a todos los servicios de Internet ofrecidos en los dos países). Si estamos hablando de una conexión entre dos países de niveles de desarrollo similares (Australia y EEUU, por ejemplo), actualmente casi siempre existe una negociación bilateral que establece un arreglo de pago mutuo aceptable para las dos partes. Adicionalmente, si los países son de culturas e idiomas similares, esta negociación se facilita todavía más, y normalmente no involucra la intervención de gobiernos. Como resultado, el costo de acceso a Internet para el usuario final es de magnitud similar para todos los países desarrollados, variando apenas el costo de telecomunicaciones local implicado. En los países en que se cobra una suscripción de valor fijo mensual sin cargo por pulsos adicionales, como en EEUU y el Canadá, el costo total de conexión vía línea telefónica (sumando la cuenta telefónica con la cuenta del proveedor de Internet) es generalmente menor que en los países europeos, en los cuales se cobran pulsos por tiempo de conexión limitante eliminada en las conexiones por línea telefónica vía sistemas xDSL (conocidas como “conexiones de banda ancha”). La situación es extremamente desfavorable en los países menos desarrollados, que tienen poco o ningún contenido de interés internacional para ofrecer. En estos casos, el poder de intercambio bilateral es nulo, y sin ningún tipo de intervención internacional, estos países tendrán siempre la conexión más costosa para los usuarios finales (el extremo inferior de la “cadena alimentaria” de la conexión), lo que es agravado por el bajo poder de compra de estos usuarios y por una infraestructura local ineficaz y/o mal distribuida de conectividad. En general, en estos casos el país sólo estará conectado a Internet si paga la totalidad de los costos de ancho de banda disponible (medida usualmente, para la mayoría de los países, en megabites o gigabites por segundo), inclusive si los usuarios del país más rico usan servicios ubicados en servidores de un país más pobre. No existe ningún acuerdo o convención internacional tan siquiera en discusión para hacer esta relación menos desigual. La gobernanza global de Internet tendrá que resolver este problema para no perpetuar la brecha cada vez mayor de conectividad entre naciones desarrolladas y naciones empobrecidas. En relación a la seguridad, no hay un organismo, mecanismo o fórum global de gobernanza establecido por convención internacional. Existen iniciativas privadas, como la red mundial de CERTs y organizaciones similares, así como redes que buscan combatir el llamado “spam” (envío de correo electrónico no solicitado y con identificación de origen falso), pero es necesario crear mecanismos mucho más efectivos, que se ocupen de las medidas preventivas y del desarrollo de sistemas seguros de intercambio de mensajes que puedan ser mundialmente uniformados. El intercambio de mensajes sin mecanismos consensuados y efectivos de autenticación de origen es el problema más grave de seguridad de Internet para el usuario final. A través de las vulnerabilidades de los sistemas de intercambio de mensajes, millares de usuarios son victimas de robo de contraseñas y de códigos de identificación a través de métodos de ingeniería social a través del “spam” (como el llamado “phishing”, que es la “pesca” de contraseñas y números de identificación a través de “spams” con contenido engañoso, asociado a un sitio Web temporal del cual el usuario baja involuntariamente un programa nocivo). Estos son ejemplos graves de temas de gobernanza que están fuera del objetivo de la ICANN y de cualquier otra organización existente. Inclusive los temas para los cuales existen organizaciones internacionales o agencias de la ONU (como la OMPI/WIPO para el caso de las patentes, copyrights y marcas, o los llamados “derechos de propiedad intelectual”, o aún las organizaciones vinculadas al comercio internacional), estas organizaciones no cubren adecuadamente las demandas y resultados de los eventos, transacciones y procesos en el ámbito de Internet. Lo que ocurrirá en el debate de los subcomités temáticos preparatorios de la CMSI que tendrán lugar desde ahora hasta Túnez, sólo el tiempo lo dirá, pero es crucial que las organizaciones civiles estén participando intensamente en el proceso para insistir en la pluralidad, transparencia y democracia como bases centrales de cualquier mecanismo global de gobernanza futuro, y que temas como los ejemplificados y decenas de otros señalados por el GTGI se tomen en cuenta. Glosario de siglas ALAC ASO At-Large Advisory Committee Address Supporting Organization ccNSO ccTLD CERT FCC GAC GNSO gTLD ICANN IETF ISOC ITU NRO sTLD xDSL WIPO WGIG WSIS Country-code [Domain] Names Supporting Organization Country-code top-level domain Computer Emergency Response Team Federal Communications Commission Government Advisory Committee Generic [Domain] Names Supporting Organization Generic top-level domain Internet Corporation for Assigned Names and Numbers Internet Engineering Task Force Internet Society International Telecommunication Union Number Resource Organization Sponsored top-level domain Digital subscriber line (ex.: ADSL) World Intellectual Property Organization Working Group on Internet Governance World Summit on the Information Society Diversidad cultural Alain Kiyindou ¿Cuál será el impacto de una red informática mundial que permita la expresión abierta y la circulación de todos los tipos de documentos sobre los foros culturales? La construcción de las sociedades de la información inclusivas vuelve a lanzar el debate sobre la diversidad cultural, renovando la percepción común y la evolución de este término de contornos mal definidos. Detengámonos en el sentido de los dos términos diversidad y cultura. La diversidad es a menudo percibida como una disparidad, una variación, una pluralidad, es decir, lo contrario de la uniformidad y de la homogeneidad. En su sentido original y literal, la diversidad cultural se referiría entonces simplemente a la multiplicidad de las culturas o de las identidades culturales. Pero hoy en día esta visión está superada, ya que para numerosos expertos, la “diversidad” se define no tanto por oposición a “homogeneidad” sino por oposición a “disparidad”. Es sinónimo de diálogo y de valores compartidos. En efecto, el concepto de diversidad cultural, así como el de biodiversidad, va más lejos en el sentido de que considera la multiplicidad de las culturas en una perspectiva sistémica donde cada cultura se desarrolla y evoluciona en contacto con las otras culturas. En lo que se refiere a la cultura, ella tiene sus orígenes en la palabra latina cultura que designaba el cuidado de los campos y del ganado. A partir del siglo XVI, significará la acción de cultivar, es decir formar, acepción de la que se desprende el sentido que se le da hoy en día, a saber lo que forma y moldea el espíritu. La cultura se torna entonces ese conjunto de significaciones, de valores y de creencias que determina nuestra manera de hacer y estructura nuestros modos de pensar [1]. Un desafó económico y cultural El término “diversidad cultural” ha sido utilizado en primer lugar con referencia a la diversidad en el seno de un sistema cultural dado, para designar la multiplicidad de sub - culturas y de sub - poblaciones de dimensiones variables que comparten un conjunto de valores y de ideas fundamentales. Seguidamente, ha sido utilizado en un contexto de mestizaje social, para describir la cohabitación de diferentes sistemas culturales, o por lo menos la existencia de otros grupos sociales importantes en el seno de las mismas fronteras geopolíticas. En los países del Tercer Mundo, la diversidad de las identidades culturales se convertirá rápidamente, en la época de la descolonización, en un argumento político a favor de la liberación y de la independencia de los países colonizados. Posteriormente, a partir de los años 60, impulsará una nueva visión del desarrollo, el desarrollo endógeno. Será seguido, por otra parte, por la puesta en relieve de un nuevo vínculo, el de la cultura y la democracia, que conducirá a dar prioridad “a la promoción de las expresiones culturales de las minorías en el marco del pluralismo cultural”. Hoy en día, el término “diversidad cultural” tiende a reemplazar la noción de “excepción cultural” utilizada en las negociaciones comerciales a partir del ciclo Uruguay en el GATT, luego de la OMC. En este enfoque, la diversidad cultural apunta a garantizar el tratamiento particular de los bienes y de los servicios culturales con medidas nacionales o internacionales. La UNESCO redacta actualmente (firma prevista en noviembre de 2005) un “Convenio sobre la protección y la promoción de la diversidad de los contenidos culturales” [2]. El proyecto reconoce la especificidad de los bienes y servicios culturales y la legitimidad de las políticas culturales. Sin embargo, su artículo 20, que trata de las relaciones entre este convenio y los otros instrumentos internacionales, especialmente la OMC, ha sido objeto de fuertes debates con los Estados Unidos. En el estado actual, el convenio obliga a las partes signatarias a tomar en consideración las exigencias de la diversidad cultural cuando ellas interpreten y apliquen sus obligaciones internacionales o cuando suscriban nuevos compromisos, aun cuando el convenio no pueda ser opuesto a los otros tratados. Una fórmula diplomática obtenida después de largas negociaciones. La protección de la diversidad cultural desde un punto de vista político y económico se vuelve en efecto urgente con la mundialización, que se caracteriza por la liberalización en gran escala de los intercambios económicos y comerciales, y en consecuencia, lo que se ha llamado la mercantilización de la cultura. Se puede notar por ejemplo que en el curso de las dos últimas décadas, el comercio de los bienes culturales se ha cuadriplicado y las nuevas reglas internacionales (OMC, OCDE) en materia de comercio suprimen cada vez más, en nombre de la libertad del mercado y del libre comercio, las intervenciones de apoyo o de protección de los Estados a favor de los bienes y servicios nacionales. La declaración independiente de la sociedad civil SMSI señala la urgencia de la situación en estos términos “La información y el saber son transformados cada vez más en recursos privados susceptibles de ser controlados, vendidos o comprados, como si fueran simples mercaderías y no componentes indispensables para la organización y el desarrollo social. Así, reconocemos que es urgente encontrar soluciones a estos problemas, a los cuales las sociedades de la información y de la comunicación se confrontan en primer lugar”. Con el advenimiento de las Tecnologías de la Información y de la Comunicación, las grandes firmas comerciales han aprovechado estos cambios inducidos para hacer adoptar peligrosas revisiones de textos legislativos en el sentido de una propiedad comercial de la cultura. Esta ofensiva de una cultura “mercantilizada” tiende a desplazar los lugares de debate y de decisión de los organismos multilaterales de la ONU hacia entidades como la OMC y los acuerdos y tratados de libre intercambio regionales o bilaterales. El tema de los debates internacionales sobre la cultura consiste pues en garantizar la supervivencia de la diversidad cultural, a pesar de los peligros de la sociedad de la información. En todo caso, para los representantes de los pueblos autóctonos, la evolución de las sociedades de la información y de la comunicación debe reposar sobre el respeto y la promoción de los derechos de las poblaciones indígenas y de su carácter distintivo, aun cuando la idea de la promoción siga siendo difícilmente aceptable para los partidarios del libre comercio. Para los que sostienen la promoción cultural, entre cuyas filas se encuentran Canadá, Francia, el Grupo de los 77 (agrupamiento de los países en desarrollo), se trata sobre todo de obtener de los Estados Unidos la garantía, sancionada por ley, de que el Convenio no esté subordinado a los instrumentos comerciales internacionales. En efecto, para los Estados Unidos y otros partidarios del libre comercio, este convenio es una mala idea [3], y las medidas mencionadas anteriormente demuestran pura y simplemente una visión intervencionista del Estado, cuya naturaleza no es la de favorecer al mercado. Las subvenciones a las empresas culturales, la imposición de cuotas de difusión, las restricciones a la propiedad extranjera de los medios de comunicación, serían, según ellos, frenos al desarrollo natural del mercado. Además, aunque esto no tiene nada de oficial, el convenio sobre la diversidad cultural aparece para muchos norteamericanos como una tentativa de debilitar la supremacía de sus industrias audiovisuales a través del mundo. Visión ética de la diversidad cultural Situándose en un plano ético, la Declaración Universal de la Unesco sobre la diversidad cultural, adoptada el 2 de noviembre de 2001 [4], reconoce la diversidad cultural como “patrimonio común de la humanidad”. De este modo, la lucha por la salvaguarda de las culturas amenazadas se convierte en un deber ciudadano. Esta posición se explica por el hecho de que la comunidad científica ha tomado conciencia del riesgo de uniformidad de la cultura en una sociedad globalizada, aún si ésta permite en teóriá la manifestación de la diversidad cultural. En efecto, las tecnologías de la información y de la comunicación, lejos de ser únicamente herramientas, modelan nuestras maneras de pensar y de crear. La cultura, por ese hecho, se ve habitada por la tecnología, dialogando con ella, conteniéndola a veces y dejándose elaborar por ella. Esta situación crea una desigualdad y una dependencia de la cultura hacia la tecnología, e impide la manifestación de la diversidad cultural, tan necesaria para la sociedad de los saberes [5]. Por otra parte, numerosos observadores afirman que la tecnología ha dejado en la sombra a toda una parte de la población, la que sigue viviendo según los principios de la naturaleza, la que no cree en el Estado, sino en el poder de los ancestros, la que no cree en la ciencia, sino en el saber tradicional. La diversidad cultural se inscribe entonces en la lógica que considera que existen otras maneras de pensar, de existir, de trabajar fuera de la manera antropo - centrada y racio centrada moderna. En efecto, si bien la ciencia y la tecnología son fácilmente comunicables ¿ están,sin embargo, todas las culturas listas para aceptar el formalismo matemático que se encuentra en la base de la construcción de las tecnologíasy de sus usos ? En el contexto del debate sobre la edificación de la “sociedad de la información”, esta adaptación pasa, por supuesto, por la diversificación de los contenidos, es decir la cohabitación de los contenidos llamados clásicos y aquellos provenientes de culturas minoritarias, de saberes locales y autóctonos [6]. Pero ¿cómo integrar las culturas y saberes autóctonos sin generalizarlos, ni particularizarlos [7]? ¿Cómo convalidarlos con la ayuda de criterios exógenos? La declaración de principio de la CMSI, adoptada en Ginebra en diciembre de 2003, insiste sobre el hecho de que “las aplicaciones deberían ser amigables, accesibles a todos, abordables, adaptables a las necesidades locales en términos de culturas y de idiomas, y facilitar el desarrollo sostenible”. Es por esa razón que conviene pensar el ciberespacio de otra manera, permitiendo a todos y a cada uno acceder a Internet en su propio idioma, pensar en usos diferentes adaptados a todas las poblaciones, especialmente aquellas que funcionan sobre el modelo comunitario. Tomar en cuenta esto daría nacimiento a la producción de aparatos y estructuras adaptadas, un despliegue que no puede hacerse sin el desarrollo de las industrias culturales locales y la implementación de modelos especificos a diferentes contextos socioeconómicos. Pero esta expresión de las culturas se inscribe en una relación de fuerza que conviene matizar. Para la Red Internacional por la Diversidad Cultural [8], se trata antes que nada de introducir en el Convenio, “medidas eficaces que permitirían a los países en desarrollo dotarse de herramientas eficaces de producción y de difusión”. Hacia un nuevo enfoque de la diversidad cultural Si bien la diversidad cultural es comprendida en general tomando esencialmente como fundamento distinciones binarias: cultura moderna/cultura local, la realidad de la diversidad cultural no es binaria, sino que se des proviene del respeto y de la aceptación de las diferencias, del diálogo y de la búsqueda de valores comunes para salir del monologismo que caracteriza a la sociedad de la información. La Declaración independiente de la sociedad civil en la SMSI de Ginebra en 2003 menciona por otra parte que cada cultura posee una dignidad y un valor que deben ser respetados y preservados [9]. En este nuevo contexto, la diversidad se convierte en una manera de abordar el mejoramiento de nuestra vida en común, cuyo fundamento es la aceptación de una visión plural del mundo [10]. Se ve entonces que la diversidad cultural es percibida aquí como integración y no como superposición o yuxtaposición de culturas, y que la sociedad de la información en la cual ella se expresa es ante todo una sociedad de saberes compartidos. En efecto, la noción de diversidad cultural nos remite a dos realidades bastantes distintas. Existe para empezar una primera concepción centrada en las artes y en las letras, que remite a su vez a la expresión cultural de una comunidad o de un grupo y que engloba la creación cultural bajo todas sus formas. Seguidamente están los modos de vida, los derechos fundamentales del ser humano, los sistemas de valores, las tradiciones y las creencias que remiten a una perspectiva más sociológica o antropológica de la cultura. Pero adhiriendo a una u otra concepción, se puede convenir en que el contexto social dominado por las tecnologías de la información y de la comunicación, necesita la implementación de medidas que sean a la vez incitativas y limitativas, que prevaleciendo sobre los acuerdos de la Organización Mundial del Comercio. De esta manera los debates actuales llegan hasta pedir, por ejemplo, que los países desarrollados se comprometan a aumentar la parte de mercado que destinan a los profesionales, artistas y otros creadores de los países en desarrollo. Pero esta propuesta, que recuerda fuertemente los debates sobre el Nuevo Orden Mundial de la Información y de la Comunicación a propósito del reequilibrio de los flujos, suscita por supuesto la oposición de los Estados que poseen las industrias culturales más grandes. Sin embargo, la pregunta que planteamos aquí se encuentra en la base misma de la edificación de una sociedad de la información accesible para todos. Infraestructura y acceso universal Raphaël Ntambue Las nociones de infraestructura y de acceso universal se aplican a realidades diversas. Se habla así de infraestructura vial, de infraestructura de telecomunicaciones, de acceso universal al conocimiento, a los medicamentos, a la información, a las tecnologías de la comunicación, etc. Lo que muestra la importancia de estos términos, pero también favorece su ambigüedad. De igual manera, estos términos transportan ideologías diferentes, entre otras, la imposibilidad de desarrollar una sociedad sin infraestructuras ni acceso universal, el proyecto de servicio universal y el ideal de una sociedad que distribuye a todos los esfuerzos de todos. La literatura actual sobre la “sociedad de la información” deja aparecer así la infraestructura de comunicación como la base o la condición sine qua non del acceso universal al saber. Este último, a su vez, se presenta como la motivación principal, o mejor, el término en el cual debería desembocar el proceso de despliegue de las infraestructuras. Y aunque esconde los intereses económicos de aquellos que implementan su contenido, el concepto de acceso universal parece cristalizar por el momento la esperanza social y la ética de la distribución de las consecuencias de la revolución digital. Se llega entonces a una expresión que traduce las relaciones entre estos dos conceptos, a saber, “infraestructura de acceso universal”. Lo esencial de ésta se encuentra en su despliegue y su repartición sobre el conjunto de un territorio, que puede ser mundial, en condiciones accesibles para todos. Ello implica el concepto de interoperabilidad, que remite a la intercomunicabilidad de los sistemas idénticos o diferentes. Los términos “infraestructura” y “acceso universal”, así como sus relaciones, siguen siendo, en consecuencia, polisémicos e ideológicos. Para hacer comprender sus implicancias y su significación actual, recordaremos, según un abordaje histórico, los contextos que le confieren tal o cual sentido, tal o cual importancia, limitándonos al campo de las tecnologías de la información y de la comunicación (TIC). El largo camino del concepto de infraestructura Este concepto adquiere una importancia preponderante en el momento de la ruptura epistemológica de las ciencias de la naturaleza en el siglo XVII occidental, a partir del cual se pone énfasis sobre la experiencia en laboratorio, sobre los métodos inductivos esencialmente experimentales, y sobre las condiciones materiales del conocimiento.[1] Slogans de la época, como “conocer es fabricar”, “el mundo es desconocido, y por conocer”, etc., refuerzan en consecuencia las ideas de logística, utilería, visibilidad y de algo palpable sobre las que se apoya por definición la noción de infraestructura. El momento de apoteosis ideológica del término “infraestructura” coincide con el advenimiento del pensamiento marxista en los siglos XIX y XX. La infraestructura comprende y significa el conjunto de las fuerzas de producción (medios de producción, fuerza de trabajo o capacidad físico - intelectual de los trabajadores) y de las relaciones de producción (formas de propiedad, organización de las clases sociales, sistemas de repartición de los ingresos). Se opone a la superestructura fundada por ella y que remite a las diferentes formas de conciencia social (ideología, religión, filosofía) y al aparato político - jurídico (administración, estructura política). La infraestructura ya está limitada a la logística, lo político la convierte en una prioridad, aquellos que se ocupan de ella gozan de un buen estatus social, en suma, ella refleja la vivacidad y el grado de organización de la sociedad. El auge de las telecomunicaciones a principios del siglo XX permite aplicar el concepto de infraestructura al conjunto de las redes, datos y equipamientos de las telecomunicaciones. La expresión “infraestructura de las telecomunicaciones” remite entonces a todo lo que permite físicamente la transmisión analógica de las informaciones. Esta acepción perdurará hasta el advenimiento de la telemática, hacia fines de los años 60. Ella conlleva la distinción entre infraestructura pesada y liviana de la comunicación. La revolución digital, marcada por el sello de un alfabeto de dos letras (0 y 1) al que se atribuye poder expresar todo por medio de una máquina que “hace hacer” en lugar del hombre, irrumpe desde fines de la primera mitad del siglo XX. Ella abre un nuevo campo de aplicación del concepto de infraestructura. Este último, convertido en “infraestructura informática” disminuye en primer lugar su campo semántico para evocar solamente la arquitectura informática. Más adelante, aumenta en densidad para expresar el conjunto de los materiales informáticos, de softwares, de normas de interface. La novedad de la expresión, es que asocia a la idea de lo “concreto” que explota lo material, a la idea de lo “abstracto” que expresan el software y su proceso de modelización. Bienes materiales y bienes inmateriales forman, de ahora en más, parte de la infraestructura. El advenimiento de Internet amplió aún más la semántica de la infraestructura, extendiéndola a la estructura de malla, acoplada a la vez con la comunicación por paquete, los protocolos de intercambio, la interface Web (instalada a partir de 1992) y los estándares de comunicación (http, htlm, XML). El equipamiento de la red informática se volvió pesado con la arquitectura clásica de las telecomunicaciones. Nuevos conceptos aparecen: “infraestructura de telemática”, “infraestructura del sistema de información”, etc. Esta significación de infraestructura es la que ha sostenido las relaciones internacionales sobre los accesos Internet mundiales, donde se trató de tasas de crecimiento de las redes, así como del número de servidores, de POP locales, de puntos de acceso, de conexión física, de cibercafés, de ordenadores por habitante, de mercado del software, etc. Pero la importancia atribuida tanto al contenido de la red o a la información así como a los modos de producción o de funcionamiento de las infraestructuras, justificó un nuevo concepto, el de la “infoestructura” que se sitúa entre las nociones marxistas de infraestructura y de superestructura y que remite a los dispositivos no físicos de la infraestructura (lo inmaterial, las normas, la reglamentación, etc.). El contexto de la globalización de los intercambios económicos, o mejor, de la extensión de los mercados de productos de información, permitió consolidar la ideología de despliegue de la infraestructura de telemática a todos los rincones del mundo. Los discursos políticos internacionales de fines del siglo XX referentes a las TIC, probablemente influenciados por el norteamericano pronunciado en 1992 por Al Gore, entonces vicepresidente de los Estados Unidos, recurrieron al concepto de “infraestructura global de comunicación” (IGC). En un contexto de voluntad política americana de promover una sociedad fundada sobre las “autopistas de la información” cuya tecnología y cuyo comercio eran manejados entonces por los Estados Unidos, este concepto remite a todo material y software capaz de democratizar tanto el contenido circulante sobre la red informática mundial como los servicios universales de telecomunicación. Se trata de toda infraestructura que se base sobre las técnicas de digitalización y sobre la convergencia, es decir sobre la integración continua de las telecomunicaciones, la informática y los multimedia. Ella se aplica, entre otros, a la educación, la salud, la economía, la investigación, en suma, a todos los sectores de la vida de los Estados. Acceso, contenido y servicios, forman actualmente un cuerpo con el nuevo concepto de infraestructura. Alrededor de este último, grupos de intereses se constituyen, a veces por una estrategia de hegemonía económica, otras veces para drenar la ayuda internacional hacia zonas de solidaridad prioritaria. En ese contexto nace la Comisión de Infraestructura Mundial de la Información (GIIC), que instala, sin resultado notable, la Comisión de la Infraestructura Mundial de la Información para el Africa, con miras a apoyar al sector privado africano que trabaja en el campo de las industrias del conocimiento y de la información. El NEPAD sigue este movimiento previendo una parte prioritaria de financiamiento de las infraestructuras de la información y de la comunicación. Las instituciones de Breton Wood (Grupo del Banco Mundial y Fondo Monetario Internacional) encuentran igualmente aquí la ocasión de anunciar inversiones a favor de las empresas privadas, en vastos programas de despliegue de infraestructuras de comunicación cuya realización se encuentra actualmente mitigada. En este contexto de IGC y de GIIC aparece otra noción para poder ser aplicada a los Estados. Se trata de “infraestructura nacional de información y de la comunicación” (NICI), que evoca aquí el conjunto de equipamientos que se inscriben en políticas públicas de los Estados en materia de las TIC. En la práctica, según esta acepción, el Estado africano no ha jugado un rol específico en el despliegue de las infraestructuras “pre Internet” antes de 1990. Y cuando se inició en la conectividad Internet, usando su monopolio en el sector de las telecomunicaciones, se encontró muy pronto superado, por una parte, por las iniciativas de liberalización de los organismos internacionales (Banco Mundial, FMI, empresas del Norte), y por otra, por la “proliferación de actividades no controladas y transnacionales” [2]. La Comisión económica de la ONU para el Africa (CEA) ha ampliado esta noción de NICI a “la reglamentación, el entorno favorable, (...) de los procedimientos que pueden llevar a las actividades ligadas a las NICI, (así como al) desarrollo de los recursos humanos” [3]. Lo que se aproxima a la concepción marxista de infraestructura y a la noción de infoestructura. Necesidades y problemas actuales, preguntas y desafíos que vendrán Podemos sacar de estas acepciones de infraestructura cinco consecuencias mayores: 1. La infraestructura es el conjunto de respuestas materiales, de software y reglamentarias a los desafíos de comunicar de una sociedad determinada. Ella es sentida como “necesidad” y expresada como “problema” en función, no solamente de los objetivos y de las metas a alcanzar en un momento dado, sino también del modo de comprensión o de los hábitos variables de comunicar de una persona o de una colectividad. Estos factores (metas, objetivos, hábitos, etc.) explican en gran parte los conflictos de interpretación de las necesidades de infraestructura que surgen a menudo en ocasión de la elección de los equipamientos a desplegar en los países en desarrollo. ¿Acaso estos últimos tuvieron alguna vez la opción de tecnología y de normas de interoperabilidad en el contexto de la cooperación para el desarrollo? Y aunque hubieran tenido esa opción ¿acaso tienen las competencias necesarias y los medios suficientes para desarrollar la lógica interna de las infraestructuras? 2. La infraestructura es también un problema a resolver. Se trata de ponerla al día y de desplegarla en todos los lugares donde debe jugar su rol. Este doble desafío es el que los Estados y las empresas expresan generalmente en sus políticas prioritarias en materia de infraestructura. Por ejemplo, en 2003, las prioridades de los países de la OCDE se referían a los despliegues nacionales de alta velocidad, la instalación de estructuras que garantizan el pago electrónico y la “normalización” de los equipos digitales [4]. En Africa, son más bien el aumento del ancho de banda, la conexión de las ciudades secundarias, la interconexión de las diferentes redes de telefonía móvil y los equipamientos WIFI para un Internet sin cable. Estas soluciones son sostenidas desde arriba por los proyectos mediáticos de constelación satelital iniciados bajo el concepto de RASCOM y el proyecto de conectividad por cable submarino que Africa One trató penosamente de realizar. La pregunta que se plantea a menudo es la de saber si la infraestructura propuesta o difundida en el Sur debe ser adaptada o debe hacer estallar el contexto de pobreza o de escasez de competencia. 3. La relatividad de la necesidad y de la importancia atribuida a la infraestructura, a causa del costo elevado o del descenso de rentabilidad de aquella. Varias empresas prefieren así desarrollarse y especializarse en los servicios que se cree darán un trabajo permanente, antes que proseguir la actividad de producción de los equipamientos considerada comercialmente muy restrictiva. Se puede comprender entonces por qué se aconseja a los países del Sur que se orienten hacia el desarrollo de los servicios. Semejante opción es, por cierto, estratégica, pero ¿garantiza un mínimo de independencia tecnológica y comercial de los países en desarrollo? 4. La diversidad tecnológica (panoplia de técnicas) y su diversificación (acceso por cable y por satélite) concurren a la complejidad y al progreso constante de la infraestructura. Lo que plantea el problema de disponer permanentemente de las competencias nacionales que necesitan igualmente los promotores exteriores de equipamientos. El despliegue óptimo de las infraestructuras se vuelve de este modo tributario del desarrollo de las competencias y necesita la formación de recursos humanos. 5. Grandes inversiones son esperadas para la investigación y la instalación de las infraestructuras pesadas. Lo que precipita a los países en desarrollo “sin dinero” no solamente a alianzas complicadas con diferentes donantes y diversas empresas del Norte, sino también a negociaciones regionales generalmente muy largas en torno a estatutos o formas jurídicas de las sociedades llamadas a administrar proyectos de infraestructuras regionales. Estas han permitido la ocasión, para los Estados del Sur, de volver a endeudarse y de depender sistemáticamente de los detentadores americanos, europeos y asiáticos (Japón, China) de soluciones tecnológicas y capitales. ¿Hay alternativas a estas dependencias a menudo no rentables?¿Cuáles son los márgenes de maniobra de los Estados en la definición de los roles de estos detentadores de soluciones en el desarrollo nacional? ¿Cómo proteger las inversiones anteriores y futuras ante el progreso rápido de las infraestructuras? ¿Hay que adoptar la estrategia de la “revolución”, que obliga a cambiar todo el equipo antiguo, o la de la “evolución” que adapta las soluciones tecnológicas del pasado a las innovaciones recientes? El grupo de trabajo sobre el financiamiento de las infraestructuras del CMSI trató de atender a estos desafíos y su informe parece provocar más preguntas que resolver problemas [5]. Acceso universal: la nueva frontera El acceso universal es comprendido como la posibilidad, para todo ciudadano de este mundo, cualquiera sea su grado de competencia digital y su situación geográfica y socioeconómica, de crear y/o utilizar por sí mismo o por mediación las redes telemáticas previamente instaladas en su medio, así como de encontrar y de poner en la Net las informaciones útiles para su proyecto de vida. El concepto de acceso universal supone en consecuencia la proximidad y la disponibilidad de las redes digitales y su interoperabilidad, el servicio universal (a alta velocidad, por ejemplo), el uso y la accesibilidad para todos a la tecnología y a la información, la capacidad de interpretar los datos, así como la participación en la renovación del sistema y del contenido de la Web. Lo que obliga a los Estados a tomar diversas iniciativas que van en el sentido de la formación de los ciudadanos, del equipamiento adaptado, de la accesibilidad económica, etc. En la medida en que se trata de implicar y de hacer beneficiar a todos de las oportunidades de las TIC, el acceso universal requiere tomar en cuenta las particularidades regionales, físicas y sociales (diversidad lingüística, cultural y social) en el proceso de la producción industrial de la infraestructura. Es el sentido del discurso que había desarrollado la Comisión Europea en los años 1990, principalmente el Libro blanco sobre el crecimiento, la competitividad y el empleo presentado en 1993 por Jacques Delors, el entonces Presidente [6]. La Agence internationale de la Francophonie se manifestó también en el mismo sentido insistiendo sobre la producción y la promoción de software en idioma francés [7]. La noción de acceso universal se presenta así como una respuesta a un modo desigual de acceso, de uso y de participación en la elaboración de los productos de la información. Esa es toda la implicancia sociopolítica del concepto en el contexto de las TIC. Se sabe, por ejemplo, que en los años 1990, los proyectos de difusión de las nuevas tecnologías en los países del Sur se adecuaban y reflejaban las metas particulares de los donantes de fondos. Los accesos eran restrictivos y reservados a usuarios privilegiados, los precios excesivos, los puntos de acceso escasos, los monopolios de algunas lenguas, el inglés a la cabeza, las interfaces exclusivas para categorías sociales (ciegos), el carácter obsoleto de los sistemas informáticos, etc. Fue entonces necesario debatir a nivel internacional [8] las implicancias sociales de las TIC en el mundo para ver emerger sinergias alrededor del concepto de acceso universal. Pensemos en el encuentro de los G8 de Okinawa, las conferencias regionales sobre el tema de inserción digital, y el establecimiento de las instituciones globales (difunto GEANT del G8, UN - ICT TASK FORCE, GKN, etc), encargadas de orientar a la comunidad internacional y de proponer respuestas a escala mundial a lo que se llama la “fractura digital”. De las diferentes fases de la Cumbre Mundial sobre la Sociedad de la Información (CMSI), precedida por conferencias regionales preparatorias, se desprende entonces un consenso de acceso universal. La idea de una infraestructura global de comunicación para democratizar el acceso a las TIC se precisa y se reafirma. La UIT puede así definir, en 1998, su acepción de acceso universal que incluye, no solamente la noción de una infraestructura flexible capaz de responder a las necesidades de todos los utilizadores, sino también el potencial de las modalidades de acceso colectivo (telecentros) o de centros de acceso comunitario [9]. Al mismo tiempo, las instrucciones de construcción de sitios Web integran de ahora en más la necesidad de legibilidad universal de los mismos. Es la significación que adopta el World Wide Web Consortium (W3C) que propone en 1999 la idea de accesibilidad unilateral a todos los recursos de la Web [10]. El movimiento de los software libres puede a su vez exigir la apertura de los códigos fuente para hacer participar a todos en la innovación de los software suprimiendo las limitaciones legales, económicas y tecnológicas. Sin embargo, el acceso universal no es una panacea. Queda por saber si aquello a lo que se tiene acceso participa en el mejoramiento tanto de la vida como de las relaciones entre humanos. Lo que no siempre es evidente. Porque, la tela mundial es también el escenario de los contrarios y de las relaciones de fuerza, y las infraestructuras de acceso, como la alta velocidad, deben pasar por ásperas negociaciones de intereses para poder ser puestas en práctica. Infraestructura de acceso Este concepto expresa las relaciones inextricables entre infraestructuras y acceso universal. Traduce ciertamente su carácter complementario. Pero, de hecho, los proyectos de despliegue de las infraestructuras acarrean, ante todo, intereses económicos que van a veces en contra del acceso universal en un régimen de competencia entre proveedores. De todos modos el proyecto de mejoramiento técnico - científico y de difusión social de las infraestructuras se refiere a la necesidad absoluta de acceso universal. Lo que, por otra parte, garantiza la extensión del mercado de los productos de comunicación. Los desafíos siguen siendo numerosos: desarrollar las capacidades ciudadanas de selección ante el volumen de información de la red telemática y a la panoplia de tecnologías de acceso, la adaptabilidad a la evolución rápida de las infraestructuras, la accesibilidad para las personas discapacitadas, la vigilancia de la competencia digital o de los conocimientos indispensables a la participación en la sociedad de la información en curso, la elaboración de presupuestos de los gastos de infraestructuras, etc. Resulta de este análisis que el concepto de acceso universal remite simplemente a la democratización de los accesos y usos de las TIC. La noción de infraestructura evoca la matriz tecnológica, reglamentaria y organizacional de esta democratización. La relación entre estos dos conceptos expresa las relaciones de reciclaje mutuo y de causalidad recíproca entre ellos, a condición de colocarse en el contexto donde el acceso del mayor número sirve de leitmotiv a las empresas que crean productos de información, y donde las infraestructuras obedecen a los principios de interoperabilidad, normalización internacional y contabilidad entre ellas. Finalmente, el desafío de palabras reside en la formulación de las políticas sociales que garanticen el despliegue de las infraestructuras de comunicación y el acceso universal a la red digital, a su contenido, a su gestión y a su producción. La Brecha digital Kemly Camacho La brecha digital es probablemente uno de los primeros conceptos con que se inicia la reflexión alrededor del tema del impacto social de las tecnologías de información y comunicación (TIC). Desde entonces se percibe que estas tecnologías van a producir diferencias en las oportunidades de desarrollo de las poblaciones y que se establecerá una distancia entre aquellas que tienen o no tienen acceso a las mismas. Desarrollo y solidaridad digital Para hacer una revisión histórica del concepto hay que recordar que, en general, la relación entre tecnología y desarrollo ha sido muy frecuentemente percibida como una relación lineal. Inclusive, en los años 60-70, se propiciaron - al menos en Latinoamérica - una gran cantidad de programas nacionales con el apoyo de los organismos internacionales y bilaterales orientados a la “transferencia tecnológica” de los países desarrollados hacia los países pobres. Aunque en esta ocasión se referían principalmente a la transferencia tecnológica orientada a la producción industrial ya se suponía que la disponibilidad de tecnología produciría desarrollo. Cuando, alrededor del año 1978, en los países ricos se dio el auge del desarrollo informático se discutía sobre el impacto de esta tecnología en el desarrollo. Con este propósito la UNESCO crea un organismo intergubernamental de informática (IBI) cuyo propósito es crear las condiciones para que los países pobres lograran su crecimiento informático y con eso se redujera la brecha con los países ricos. Es entonces desde la informática y no necesariamente desde la expansión de la Internet que se comienza a construir el discurso sobre la brecha digital. “La adopción de la informática por los países del Tercer mundo y la aplicación de una política en este ámbito les permitirá acceder al mismo nivel de desarrollo que los países industrializados. La experiencia de los países industrializados prueba que la informática, nacida del progreso, puede, a cambio, acelerar el desarrollo. Si los países en desarrollo logran dominarla, puede incluso, gracias a una mejor administración de los recursos, contribuir a atenuar la brecha que los separa de los países poderosos”[1] Este discurso se generaliza posteriormente con la expansión de la Internet. En el año 2000 en Okinawa, el G7 [2] define como uno de sus principales nortes el desarrollo de la sociedad de la información (global information society) y crea la Dot Force con el propósito de integrar esfuerzos internacionales y encontrar maneras efectivas de reducir la brecha digital. Aunque ese documento no da una definición precisa de la brecha digital, se puede deducir que se entiende como la inclusión o exclusión de los beneficios de la sociedad de la información. “Renovamos nuestro compromiso con el principio de inclusión: todo el mundo, donde sea que se encuentre, debe tener la posibilidad de participar; nadie debe quedar excluido de los beneficios de la sociedad de la información.” [3] Otro hito en la construcción del concepto se da en la Cumbre de la Sociedad de la Información en Ginebra, 2003 [4] cuyo tema de convocatoria es precisamente la reducción de la brecha digital. Se comprende que la misma se reducirá con el acceso a las TIC y con la creación de oportunidades digitales. En esta Cumbre se propone como estrategia la solidaridad digital de los países ricos con los países en desarrollo. “Reconocemos que la construcción de una Sociedad de la Información integradora requiere nuevas modalidades de solidaridad, asociación y cooperación entre los gobiernos y demás partes interesadas, es decir, el sector privado, la sociedad civil y las organizaciones internacionales. Reconociendo que el ambicioso objetivo de la presente Declaración -colmar la brecha digital y garantizar un desarrollo armonioso, justo y equitativo para todos- exigirá un compromiso sólido de todas las partes interesadas, hacemos un llamamiento a la solidaridad digital, en los planos nacional e internacional.” [5] Posterior a la Cumbre del 2003, se crea la UN ICT Task Force (Fuerza de Tarea de TIC de la ONU) que sustituye en cierta medida la Dot Force y cuyo objetivo principal es relacionar el uso de las TIC con la consecución de los objetivos del milenio también definidos por las Naciones Unidas. Con este acercamiento se pretende explicitar cómo las tecnologías de información y comunicación pueden ser utilizadas como instrumento de desarrollo. Otro aspecto importante de rescatar de esta propuesta es que ya no se habla solamente de la Internet sino de otras tecnologías de información y comunicación como la telefonía móvil. La UN ICT Task Force define la brecha digital de la siguiente manera: “En los últimos años, como consecuencia de que las tecnologías de la información y de la comunicación se han convertido en la columna vertebral de la economía de la información mundial y de que han dado lugar a la sociedad de la información, se ha puesto mayor atención a la diferencia de acceso a las TIC entre los países desarrollados y los países en desarrollo. Esta diferencia se conoce como la “brecha digital”. Pero ¿qué tan grande es? ¿Está creciendo o se está reduciendo? Una manera significativa de medir esta diferencia de acceso a las TIC es estudiar las divergencias entre los países desarrollados y los países en desarrollo en lo concerniente a la introducción de diversos servicios de TIC (teléfono, teléfono celular, internet) y de computadoras portátiles, en la última década. [...] La diferencia se ha reducido visiblemente, con un progreso particularmente rápido en el sector de los teléfonos celulares y en el uso de internet.” La UIT convoca, en el 2004, al evento “Building digital bridges” [6] en el cual se retoma el concepto de brecha digital a partir de las diferencias de conectividad, ahora incluyendo además la diferencia en las velocidades de conexión, entre el dial up y el wireless por ejemplo. Los tres aspectos de la brecha digital También se posiciona en este evento de UIT que la brecha digital está basada en aspectos de acceso pero también en los relacionados con el uso de las TIC. Se proponen tres tipos de brecha digital: la de acceso, basada en la diferencia entre las personas que pueden acceder y las que no a las TIC ; la de uso, basada en las personas que saben utilizarlas y las que no ; y las de la calidad del uso, basada en las diferencias entre los mismos usuarios [7]. Como puede deducirse, el concepto de brecha digital se ha modificado a través del tiempo. En un principio se refería básicamente a los problemas de conectividad. Posteriormente, se empieza a introducir la preocupación por el desarrollo de las capacidades y habilidades requeridas para utilizar las TIC (capacitación y educación) y últimamente también se hace referencia al uso de los recursos integrados en la tecnología. Así, el concepto de brecha digital incorpora los siguientes enfoques básicamente: a) El enfoque hacia la infraestructura: o sea, la posibilidad/dificultad de disponer de computadoras conectadas a la red mundial. Esto incluye también el problema de servidores y de backbones. De hecho, los países del sur siguen dependientes de los equipamientos del norte. b) El enfoque hacia la capacitación: es decir, la capacidad/dificultad de usar estas tecnologías. Se empezó a contemplar que también existe una diferencia relacionada con las habilidades y capacidades para utilizar adecuadamente la tecnología y no solamente con la posibilidad de disponer de computadoras. En este sentido, se comienza a desarrollar el concepto de alfabetización digital relacionado con el de brecha digital. c) El enfoque hacia el uso de los recursos: se refiere a la limitación/posibilidad que tienen las personas para utilizar los recursos disponibles en la red. En los últimos tiempos, se ha integrado en el concepto de brecha digital las posibilidades de utilizar la tecnología no solamente para acceder a la información, el conocimiento sino también a un nuevo modo de educación y para aprovechar de las “nuevas oportunidades” como el desarrollo de los negocios, la atención médica en línea, el teletrabajo, el disfrute de nuevas formas de entretenimiento y ocio. Basados en estos elementos, muchos de los organismos internacionales han definido una política de desarrollo orientada a la reducción de la brecha digital. Sin embargo, a pesar de la evolución en el concepto, se enfatiza principalmente en el desarrollo de la infraestructura tecnológica. Las inversiones y las políticas nacionales para la reducción de la brecha digital siguen orientadas principalmente hacia el desarrollo de la conectividad. Una de las mejores maneras de concretar la comprensión de un concepto es la forma en que este se le valora. En este sentido, las más importantes mediciones de la brecha digital (e-readiness, UIT) están relacionadas con el grado de masificación del uso de las TIC entre países, regiones, grupos o personas y se mide por variables como la disponibilidad de computadoras, la densidad telefónica y la velocidad de acceso por persona[8]. Los imaginarios políticos de la brecha digital Es importante visitar estas definiciones porque son referentes para la conformación de las políticas nacionales de tecnología. Primero tenemos que tomar en cuenta el hecho de que, vinculados a la brecha digital, se mueven varios imaginarios sobre los cuales proponemos reflexionar. La diferencia en el acceso a las tecnologías incrementará las diferencias sociales ya existentes. a) La ilusión de la relación causa-efecto Uno de los aspectos más delicados en la comprensión de la brecha digital es la relación de causalidad que subyace en propuestas como la del sitio de CMSI. “Se ha hecho cada vez más grande la brecha que separa el conocimiento de la ignorancia y los ricos de los pobres, tanto dentro de cada país como entre países” [9] En las definiciones se establece una relación directa entre el acceso a la tecnología y las oportunidades de desarrollo (determinismo tecnológico), expresadas en mejores condiciones de bienestar, reducción de la pobreza y mejoramiento de la calidad de vida. De la misma manera se establece lo contrario, es decir que un menor acceso a las TIC implicará mayores dificultades para mejorar las condiciones de vida. Sin embargo, esta relación causa-efecto no se explica y las consecuencias positivas y negativas que se producen directamente del acceso a la tecnología aparecen como una solución mágica. Esta explicación causal implícita en el concepto oculta la complejidad de la brecha digital y la posible relación entre la incorporación de las tecnologías en las dinámicas sociales y la transformación social que implica. Para los grupos sociales que posicionan un nuevo entendimiento de este concepto, los factores que pueden potenciar el uso de la tecnología como instrumento de desarrollo son diversos, complejos y tienen interrelaciones entre sí que dependen del contexto, la cultura y la historia del grupo en el que estas se incorporan. Entonces, se puede decir que las tecnologías de información y comunicación pueden ser un elemento que potencia del desarrollo, pero hacer efectivo este potencial depende de aspectos organizativos, de desarrollo de habilidades y capacidades, de acciones de integración dentro de la identidad cultural y social del grupo, de modificación de procesos sociales, entre otros. Cuando un grupo social se apropia de la tecnología, es capaz no solamente de usarla para transformar sus propias condiciones de vida, sino que la transforma a ella misma por medio de procesos de innovación tecnológica con identidad social. b) Los “incluidos” de la sociedad de la información podrán participar en la construcción de una “nueva sociedad” Las TIC serán un elemento dinamizador fundamental en la sociedad. Por consiguiente quienes, individual y colectivamente, logren desarrollar la infraestructura y las capacidades para utilizarlas serán privilegiados, tendrán mayor capacidad de decisión e influirán la construcción de esta “nueva sociedad” [10]. c) La brecha digital resulta de las brechas sociales Esta percepción basada en la relación causa-efecto oculta la relación dinámica y dialéctica entre la brecha digital y las otras brechas sociales. Se suele considerar que la diferencia en el acceso a las tecnologías incrementará las diferencias sociales ya existentes. Es decir, que la brecha digital implicará más desarrollo en los países, regiones y personas con mejores oportunidades de acceso en detrimento de quienes tienen menos. Esta diferencia se hará evidente no solo entre países, sino también dentro de cada país privilegiando a las poblaciones con mejores condiciones económicas, políticas, sociales y culturales. Por cierto, la brecha digital es producto de las brechas sociales producidas por las desigualdades económicas, políticas, sociales, culturales, de género, generacionales, geográficas, etc. d) Una sola brecha digital - una sola solución Uno de los aspectos más relevantes del concepto que se analiza es que expresa unicidad. Se habla de la brecha digital en el mundo entero, como si existiera solo una y como si tuviera las mismas características en cualquier tiempo o espacio social. Este es uno de los aspectos más fuertes del imaginario que está detrás de la definición. El problema de hablar de la brecha como una sola es que, entonces, se buscan soluciones únicas y generalizables. En realidad se debería de hablar de las brechas digitales, dadas por la condición de género, edad, cultural, localización geográfica o socioeconómica y por las combinaciones entre estos factores. De esta manera, el abordaje conceptual, metodológico y los recursos y acciones para enfrentarlas estarían relacionados con las condiciones específicas de las mismas. e) La brecha digital no aparece por sí misma Otro de los aspectos que se destacan es el carácter ahistórico del concepto. En general, si se estudian los discursos tradicionales relacionados con el tema de la sociedad de la información llama la atención que la mayoría de ellos no relatan la historia que da surgimiento a la misma. En general, da la sensación de que la sociedad de la información aparece sin que sea producto de una dinámica social y un proceso histórico. Parece como si la sociedad de la información se construye a partir de la incorporación de las tecnologías y no a partir de las realidades estructurales y las contradicciones existentes. En este sentido, se entiende como una brecha producida por los aspectos tecnológicos, y estos aparecen en el discurso como neutrales. f) La individualización Otro de los imaginarios que rodean este concepto es la individualidad. Al realizar las mediciones de la brecha digital basándose en la relación entre población conectada y población desconectada se estimula un uso individual de la tecnología. Ya de por sí, se ha estimulado el uso individualizado de la computadora en la escuela, la empresa, el Estado y otros espacios donde esta se ha integrado como parte de los recursos cotidianos. Son poco generalizadas las acciones que tratan de establecer usos colectivos de las TIC. Pero adicionalmente a esto, el concepto de brecha digital analiza la disponibilidad individualizada partiendo del supuesto de que el beneficio de una computadora es para una persona. Desde algunos esfuerzos de la sociedad civil, como los telecentros o los puntos de acceso comunitario, la reducción de las brechas digitales y la medición de las mismas se basan en los usos colectivos de los equipos de cómputo y estimulan y comprenden los beneficios grupales de los mismos. La brecha digital debería referir a las capacidades/dificultades que tiene un grupo social de utilizar las TIC como recurso común para el desarrollo de la colectividad y la transformación de las condiciones de vida de sus integrantes. g) Las nuevas brechas digitales Hasta este momento se habla de la brecha digital como la diferencia que produce en el desarrollo el tener acceso o no a las tecnologías. Sin embargo, nuevas brechas digitales van apareciendo a medida que las TIC se incorporan en la vida social. Ya no se trata únicamente de un problema de tener acceso o no, sino de las diferencias que aparecen entre quienes ya tienen conexión. No todos los que disponen de conexión tienen posibilidades de desarrollar sus capacidades y habilidades para el teletrabajo, por ejemplo. Y nuevamente, no por la tecnología misma, sino porque las condiciones que se requieren para integrarse en esta nueva fuerza laboral como una educación bilingüe, un alto manejo tecnológico, capacidades de interacción multicultural, condiciones de inestabilidad, aptitud para trabajar de manera aislada y tomar mayores responsabilidades vinculadas al teletrabajo, entre otras, son costosas y difíciles de adquirir y por consiguiente no pueden ser asumidas por la mayoría de la “población conectada”. O tampoco por ejemplo, todas las empresas locales a pesar de tener conexión, podrán aprovechar las ventajas de la comercialización en línea o podrán incorporarse en las redes productivas multinacionales. Nuevamente no es el aspecto tecnológico el que las limita sino las condiciones económicas, sociales y culturales en las cuales se desenvuelven y las posibilidades de desarrollar capacidades y transformar sus procesos productivos. Agregando a esta reflexión se deja mencionada la gran discusión sobre propiedad intelectual donde se juega el futuro del conocimiento como derecho privado o colectivo y que tiene la potencialidad de abrir nuevas brechas relacionadas con el acceso, uso y producción del conocimiento y la información que viaja por la red. Con la inserción de las tecnologías en la vida cotidiana aparecerán nuevas brechas digitales que se refieren a las posibilidades reales de aprovechamiento de las mismas, principalmente entre la clase media que aunque tiene mejores condiciones de acceso que las clases más populares, no siempre tiene todos los recursos para desarrollar las capacidades y habilidades que les permitan aprovecharlos para transformar las condiciones actuales. h) Inversión focalizada en infraestructura Si se aborda la brecha digital bajo el supuesto de causalidad es posible que los Estados, los organismos internacionales y algunas instancias de la sociedad civil orienten los esfuerzos y recursos directamente al desarrollo de la infraestructura y en algunos pocos casos a procesos de capacitación técnica básica. Invertir en estos aspectos tiene además la ventaja, para quienes lo hacen, de que es fácil hacer evidente el destino de los recursos (en computadoras, laboratorios, conexiones, líneas, etc). Se supone que una vez que se ha desarrollado la infraestructura el resto de los beneficios vendrán luego; se desatarán mágicamente. i) La brecha digital como negocio La brecha digital entendida como brecha tecnológica únicamente y basar su solución principal en el desarrollo de la infraestructura es sumamente conveniente para las grandes empresas de telecomunicaciones y las productoras y comercializadoras de equipo de cómputo. La inversión social que implica abordar integralmente las brechas digitales, por medio de procesos de fortalecimiento organizativo y de desarrollo de capacidades, no representan un negocio tan importante como si es la venta masiva de conectividad y computadoras. j) La brecha digital - un espejismo La discusión sobre la sociedad de la información y el conocimiento ha estado bastante concentrada en el tema de la brecha digital y cómo reducirla. Esto provoca un espejismo ya que disimula o minimiza la discusión sobre los otros aspectos que implica la sociedad de la información y el conocimiento como creación de empleo y cambios de condiciones de trabajo en relación con las TICs, transformación de los modelos económicos y de creación de valor, los aspectos legales, la nueva educación, la propiedad intelectual, el conocimiento abierto etc. Participar en los procesos de apropiación social de la tecnología La sociedad civil organizada, así como diferentes investigadores y académicos, han propuesto nuevas comprensiones de este concepto, haciéndolo más complejo y poniéndolo en contextos. Una de las manifestaciones más claras de estas propuestas se da dentro del marco de la Cumbre Mundial de la Sociedad de la Información en Ginebra, 2003 donde la sociedad civil tuvo un papel fundamental posicionando nuevas comprensiones y conceptos que fueron desarrollados a través de procesos participativos durante los meses anteriores a este evento. El tema de la brecha digital también fue redefinido por la sociedad civil como puede deducirse de la declaración final de la sociedad civil. “Consideramos que las tecnologías pueden utilizarse como medios fundamentales, y no así como fines en sí mismas, por lo cual reconocemos que reducir la brecha digital es un paso más, entre otros, en el camino para conseguir el desarrollo en favor de todos y todas. La desigual distribución de las TIC y la falta de acceso a la información que tiene una gran parte de la población mundial, fenómenos que suelen denominarse brecha digital, son de hecho una expresión de nuevas asimetrías en el conjunto de brechas sociales existentes. Éstas incluyen las brechas entre el Norte y el Sur, los ricos y los pobres, los hombres y las mujeres, las poblaciones urbanas y rurales, aquellos que tienen acceso a la información y aquellos que carecen del mismo. Dichas disparidades pueden verse no sólo entre las diferentes culturas, sino también dentro de las fronteras nacionales. La comunidad internacional debe ejercer su poder colectivo para garantizar que los Estados adopten medidas con el fin de reducir las brechas digitales nacionales.” [11] Desde estos grupos se comprende la brecha digital a partir de las condiciones que tienen que desarrollarse para la apropiación de las tecnologías y para la incorporación de las mismas como una herramienta que debe ser integrada en la vida cotidiana para transformar las realidades en un proceso continuo. Un reflejo de esto es lo expresado por Jean-François Soupizet [12] “La mínima capacidad de apropiarse de las tecnologías de la información y de la comunicación en un contexto estructural de innovaciones sucesivas es lo que hace la diferencia. En efecto, en un mundo en plena globalización, este retraso amenaza con agudizar el resto de disparidades, razón por la cual se presta especial atención a la brecha digital.” Otra referencia a esta comprensión del concepto se puede encontrar en la comunidad virtual Mística que tiene la virtud de unir las experiencias y los pensamientos de investigadores y actores de la sociedad civil latinoamericana. [13] “La brecha digital es una expresión de las brechas sociales. Para comprenderla es necesario analizar las condiciones de acceso, uso y apropiación social de las mismas y no solamente reducir su comprensión a la infraestructura y conectividad.” Cambiar de perspectiva para que las tecnologías estén al servicio de las sociedades Partiendo del análisis del concepto y de las opciones presentadas desde la sociedad civil, se propone una nueva acepción al concepto que vaya en el siguiente sentido: Las brechas digitales están dadas por las posibilidades o dificultades que tienen los grupos sociales de aprovechar colectivamente las tecnologías de información y comunicación para transformar la realidad en la que se desenvuelven y mejorar las condiciones de vida de sus integrantes. Se propone que para hablar de brecha digital y de las estrategias para enfrentarla se parta de la sociedad que soñamos y no de la tecnología. Y que una vez definida la utopía se reflexione de cómo las tecnologías pueden contribuir para alcanzarla. Por ejemplo, se habla de la solidaridad digital como estrategia de reducción, sin embargo, la reflexión debería estar centrada en cómo las tecnologías pueden apoyar la construcción de sociedades solidarias y qué condiciones requieren los grupos sociales para utilizar las TIC para llegar a esta aspiración. Definitivamente este cambio de enfoque transforma a su vez la comprensión de lo que es la brecha digital. Notas y referencias [1] Unesco-IBI. Rapport général de la conférence Stratégies et politiques informatiques nationales, Torremolinos, 1978, p. 17. [2] Grupo de los 7, luego de los 8, G8. [3] G7, Okinawa Charter on Global Information Society, Okinawa, July 22, 2000. http://www.g7.utoronto.ca/summit/20... [4] Declaración de principios CMSI, Ginebra, 2003 http://www.itu.int/wsis/docs/geneva... [5] http://www.unicttaskforce.org/perl/... [6] http://www.itu.int/digitalbridges/d... [7] http://www.itu.int/digitalbridges/d... [8] ITU Digital Access Index: World’s First Global ICT Ranking Education and Affordability Key to Boosting New Technology Adoption http://www.itu.int/newsarchive/pres... [9] ¿Por qué una Cumbre sobre la Sociedad de la Información? http://www.itu.int/wsis/basic/why-e... [10] “El poder acceder a las tecnologías de información y comunicación es un requisito importante para participar de una sociedad cada vez más dependiente de la tecnología” (CristiAn Fuenzalida) http://www.dcc.uchile.cl/ cfuenzal/... [11] Construir sociedades de la información que atiendan a las necesidades humanas : Declaración de la sociedad civil en la Cumbre Mundial sobre la Sociedad de la Información, Adoptada por unanimidad en Plenaria por la sociedad civil de la CMSI el 8 de diciembre de 2003. http://alainet.org/active/show_news... [12] Soupizet, Jean-François. La fracture Numérique Nord Sud, Édition Economica, Paris. [13] [http://www.funredes.org/mistica Lecturas complementarias http://www.funredes.org/mistica http://www.barcelona2004.org/esp/ba... http://www.monografias.com/trabajos... http://www.labrechadigital.org http://www.cibersociedad.net/archiv... http://www.revistainterforum.com/es... http://www.fundacionctic.org/prensa... http://www.geocities.com/brecha_digital/ http://www.el4ei.net/first/charter%... http://www.ssb.no/ikt/ict_nord/kap2.pdf http://www.n-economia.com/informes_... http://www.bvs.sld.cu/revistas/aci/... http://wwww.catunescomujer.org/glor... ww.isis.cl/temas/cominf/quehay8.htm http://www.nordinfo.helsink.fi/publ... Acceso público a Internet Subbiah Arunachalam El advenimiento de Internet trajo consigo posibilidades hasta ahora desconocidas para la creatividad humana, el acceso a la información y la comunicación internacional. ¿Cuándo estas posibilidades se convirtieron realmente en un amplio acceso público a Internet? Es difícil especificar una fecha, pero se pueden identificar algunos hechos fundamentales y los principales participantes en esos hechos. Mucho antes del advenimiento de Internet, el movimiento contracultural - guerra de Vietnam, tecnologías alternativas, etcétera - dio a luz a la primera red comunitaria, cuando un grupo de piratas informáticos desarrolló en San Francisco, a inicios de los años sesenta, el sistema Community Memory. Luego, en 1986 la Free-Net de Cleveland, Ohio, dio inicio a una nueva generación de redes comunitarias. Las Free-Net pronto atrajeron a miles de nuevos usuarios, y los nuevos sistemas se establecieron en docenas de ciudades, sobre todo en la región central de los EE.UU. Estas redes de computadoras de acceso público gratuito permitieron a las personas no solo intercambiar y acceder a la información, sino que también les concedieron poderes. En el año 1971 tuvieron lugar dos hechos importantes: La invención por parte de Raymond Tomlinson de un programa de correo electrónico [1] para ARPANET, la red de los científicos que trabajaban en la investigación relacionada con la defensa, cambió la forma en que las personas veían a las computadoras y la comunicación humana [2]; y el proyecto Gutenberg de Michael Hart, que puso a disposición por vía electrónica libros sin derechos de autor [3], permitió a la creación de enormes volúmenes de contenidos electrónicos que pueden ser compartidos por todo el mundo. En 1973 ocurrieron dos hechos: Vinton Cerf y Robert Kahn presentaron las nociones básicas de Internet basadas en las ideas para el Protocolo de Control de Transmisión (TCP, llamado posteriormente TCP/IP) en una reunión en la Universidad de Sussex [4]; y ARPANET tuvo su primera conexión intercontinental - con el Colegio Universitario de Londres, Inglaterra. A principios de los años ochenta, muchas instituciones que no realizaban investigaciones para la defensa se unieron a la red, con lo que el número de usuarios creció de lo cual aumentó el número de usuarios a varios centenares de miles.. En 1985, Internet ya se había establecido como tecnología que servía de apoyo a una amplia comunidad de investigadores y creadores, y comenzaba a atraer a otras comunidades. El correo electrónico era utilizado ampliamente por varias comunidades, que a menudo empleaban sistemas diferentes. Los primeros servicios comerciales de Internet fueron ofrecidos por PSI y AlterNet a principios de 1990. En agosto de 1991, el Consejo Europeo para la Investigación Nuclear (CERN por sus siglas en francés) lanzó la World Wide Web, marcando un hito en la historia del acceso público a Internet. El 15 de septiembre de 1993, la administración Clinton lanzó formalmente la iniciativa de Infraestructura Nacional de Información en los EE.UU., gracias a las iniciativas tomadas por el vicepresidente Al Gore. La versión 1.0 del navegador Web Mosaic también fue presentada en 1993, y ya en 1996 el término “Internet” era utilizado de manera común, pero hacía referencia casi completamente a la World Wide Web. Aunque el nuevo desarrollo fue comparado con las autopistas que en una generación anterior transformaron el transporte, pronto quedó claro que Internet era mucho más que la ‘autopista de la información’ y que era capaz de proporcionar acceso a niveles más elevados de información solicitada de manera inteligente y distribuida de forma funcionalmente enriquecida. Es aquí donde radica lo que diferencia a Internet de la biblioteca tradicional, el lugar donde la gente iba a buscar información. La creciente popularidad de la comunicación computarizada incitó el debate con respecto a muchos aspectos fundamentales de la interacción social, incluyendo las cuestiones relacionadas con la privacidad, la comunidad, el intercambio cultural, la propiedad del conocimiento y el control gubernamental de la información, vinculados al acceso público. ¿Qué es el acceso público? El «acceso público» incluye el acceso a la tecnología (computadora, conectividad, ancho de banda, etcétera) y el acceso a todo el contenido almacenado en la red artificial más grande del mundo, como ha definido la revista Newsweek al Internet. De estos dos aspectos, el segundo está jerárquicamente por encima del primero, pues la tecnología está subordinada al contenido (conocimiento) que puede transmitir. Esto es similar a suministrar agua a un pueblo a través de una tubería, donde naturalmente el agua es más importante que las tuberías. El acceso a la tecnología y el acceso al contenido pueden ser gratuitos o basados en una tarifa. El contenido podría ser de texto, audio, video o multimedia. La conectividad puede ser a través de una variedad de tecnologías que van desde el marcado manual usando un teléfono y un módem hasta redes inalámbricas y dispositivos portátiles (teléfonos inteligentes, consolas de juego...). El público puede utilizar el acceso a Internet para enviar y recibir correos electrónicos, participar en servicios de listas y grupos de discusión, y buscar información. Los científicos también la utilizan para la investigación colaborativa, y las personas comunes la utilizan para hablar con otros, sea a través de charlas, sea a través de voz por IP. Aplicaciones más recientes del acceso a Internet incluyen el intercambio de datos a través de las tecnologías punto a punto, la distribución de música, los boletines electrónicos, el vlogging, el periodismo ciudadano, la obtención de RSS de noticias de diversas fuentes, y el podcasting. El público puede tener acceso a Internet desde sus propios hogares y oficinas, pero también desde bibliotecas públicas y cibercafés, y en cierto grado desde instituciones educativas y los siempre crecientes telecentros, así como desde los vestíbulos de los hoteles y los salones de aeropuertos equipados para el acceso a redes inalámbricas. Las enormes cantidades de información a las que cualquier persona puede tener acceso, dondequiera, en cualquier momento y sin costo alguno pueden ser llamadas áreas públicas de la información. El acceso público a Internet se basa en la idea de que incluso en economías de mercado dominadas por la obtención de ganancias, la propiedad y el control comunitarios de los recursos de información pueden ser eficientes y eficaces [5]. Hacia el acceso universal a escala mundial El debate más importante de la actualidad gira en torno a la ‘universalización’ del acceso. ¿Por qué es tan importante la universalización? Investigadores como Ernest Wilson se preocupan por el hecho de que, en ausencia del acceso universal, la difusión rápida de Internet en las organizaciones, las culturas, y las sociedades de naciones industrializadas pueda ensanchar el espacio multidimensional que las separa de los países en desarrollo, exacerbando un problema moral y práctico ya significativo [6]. Larry Press considera que la comunicación barata y flexible por Internet puede conducir a mejorar la productividad económica, la educación, la atención médica, el entretenimiento, el conocimiento del mundo, así como la calidad de vida en países en desarrollo y los los focos de pobreza en el interior de los países, reduciendo así la disparidad [7]. Sin embargo, existen numerosos obstáculos para lograr el acceso universal. Mientras en gran parte de Norteamérica y de Europa Occidental la penetración del Internet es muy elevada y prácticamente cada ciudadano que desee tener acceso a la red puede hacerlo, en muchas partes del mundo en vías de desarrollo, y en particular en África Subsaharial, solo un pequeño porcentaje de la población puede tener acceso, con un acceso en banda ancha extremadamente lento y por un costo que representa una parte sustancial de sus ingresos. Los números de computadoras, teléfonos, etc., por cada mil habitantes y el ancho de banda en la mayoría de estos países son muy bajos comparados con los países avanzados y están distribuidos de manera desigual [8]. Precisamente para erradicar esta ‘división digital’ los países en vías de desarrollo están abogando por la creación de un Fondo de Solidaridad Digital [9]. En muchos países en vías de desarrollo se están realizando esfuerzos para erradicar la división digital o la carencia de tecnología mediante la creación de telecentros comunitarios y la puesta a disposición de la información que la gente local necesita. Desarrollo de los telecentros Los telecentros, también conocidos como puntos de acceso público (Francia), centros comunitarios digitales (México), etcétera, difieren de los cibercafés en su forma de trabajo. Los cibercafés han sido concebidos, ante todo, para proporcionar a las personas que los utilizan una conexión a Internet, y, cuando sea necesario, una introducción muy básica al empleo del equipamiento. Funcionan de manera similar a un establecimiento de autoservicio. Los telecentros han sido concebidos para acompañar la utilización comunitaria de Internet (educación, salud, microcomercios, etcétera). Generalmente se abren en vecindades en las que no hay cibercafés y están destinados a las comunidades excluidas a priori de la sociedad de la información. Además de poner a disposición equipos y conexiones, los telecentros proporcionan adiestramiento y ayuda a los usuarios (por ejemplo, ayudan a los vecinos a desarrollar aplicaciones comunitarias). En la práctica, la diferencia entre los telecentros y los cibercafés no siempre queda clara, y ambos pueden solaparse según los objetivos de la gente que los opera y el modelo de desarrollo seleccionado. De hecho, existen tres modelos principales para el establecimiento de los telecentros: Telecentros apoyados por las autoridades públicas locales o nacionales. Por ejemplo, una ciudad como Brest [10], en Francia, se ha equipado sistemáticamente de modo que cada habitante tenga un punto de acceso público a menos de 300 metros de su casa. Entre 1999 y 2001, Argentina puso en práctica un vasto programa de infraestructura que implicó la creación de 1 350 centros tecnológicos de la comunidad (CTC) [11]. El gobierno de la India aplicó el mismo enfoque en los estados del norte [12] y ahora la mayoría de los planes nacionales para la sociedad de la información incluyen proyectos de telecentros bajo el título “inclusión social”. Telecentros como iniciativa de un grupo local de personas, un grupo voluntario local o una escuela. A menudo, en su fase inicial reciben financiamiento de una ONG [13] o de una agencia de ayuda internacional. Por ejemplo, el IDRC, una agencia canadiense para el desarrollo, y el IICD, una agencia de los Países Bajos, desarrollaron grandes planes de ayuda a los telecentros a principios de los dos mil. La UNESCO también ha apoyado muchos centros multimedia de la comunidad (CMC) para promover la participación de la comunidad y enfrentar la división digital mediante la combinación de la difusión comunitaria con Internet y las tecnologías relacionadas [14]. Telecentros diseñados como empresas privadas con verdaderos planes de negocio que pueden existir solo en áreas donde pueden resolverse las necesidades básicas. Aunque su actividad lucrativa los asemeja más a los cibercafés, se dedican a satisfacer las necesidades de la comunidad. A menudo, estos modelos se mezclan en la práctica. Los primeros experimentos datan de finales de los años noventa, y como muchos telecentros han sido cerrados desde entonces, es posible identificar ciertas condiciones que son esenciales (aunque en realidad, por sí mismas no lo son lo suficiente) para el éxito de los telecentros: Creación de un telecentro que responda en verdad a las necesidades de los habitantes locales; estas necesidades varían considerablemente no solo de un país a otro, sino de un pueblo o una vecindad a otra; El financiamiento debe contemplar el adiestramiento del personal y no solamente los equipos; La puesta a disposición de software gratuitos que permitan la autonomía tecnológica y eviten la reinversión constante en aplicaciones y actualizaciones; La existencia de la infraestructura mínima que permita el funcionamiento técnico (energía, viabilidad de las instalaciones, etcétera); Los espacios de implantación deben responder a otras necesidades de la población aparte de la simple conectividad (centros de salud, centros sociales, bibliotecas, escuelas, ...); La elaboración de un modelo de desarrollo que permita gradualmente la autonomía financiera con respecto a los patrocinadores iniciales. Muchos fracasos ocurridos son debido a la suspensión de los subsidios externos. Los puntos de acceso público, o telecentros, se han desarrollado considerablemente en América Latina y el Caribe y muchos de ellos han unido sus fuerzas en la red de intercambio [15]. Por supuesto, África es el continente donde esos centros han tenido más problemas para mantenerse funcionando. La baja densidad demográfica, los bajos niveles de instrucción, la cultura oral y la mala calidad de lo que suministran los operadores significan que de manera general el desarrollo de Internet es difícil. Además de estas dificultades genéricas, los telecentros también han tenido que enfrentar la imposibilidad estructural de encontrar ingresos independientes: en las áreas solventes, los cibercafés han surgido a gran velocidad, impidiendo el establecimiento de telecentros con ingresos mixtos; en las áreas insolventes, a menudo los donantes internacionales se han cansado de los proyectos de financiamiento que en ocasiones eran demasiado ambiciosos desde el principio (África es el continente donde se han transpuesto las visiones de la sociedad de la información centradas en el Norte sin tener en cuenta realmente las necesidades locales, lo que ha condenado a los proyectos al desuso) [16]. Por otra parte, la India multiplicó los experimentos de los telecentros adoptando diversos modelos, entre los que se incluyen el modelo de ingresos propiedad de la comunidad y los centros apoyados por el gobierno. Un buen ejemplo del modelo propiedad de la comunidad son los centros de conocimiento del pueblo creados por la Fundación para la Investigación M S Swaminathan (MSSRF por sus siglas en inglés) en varios pueblos del sur de la India [17] [18]. El uso más conocido de Internet en estos centros es la difusión, a través de un sistema de megafonía, de información preliminar sobre la altura de las olas en la costa de Pondicherry, descargada de un sitio Web de la marina de los EE.UU. de modo que los pescadores de los pueblos costeros puedan decidir si es seguro o no aventurarse al mar en un día determinado. Desde que se inició este servicio en 1999, no ha habido ni una sola muerte en el mar en estos pueblos. En colaboración con OneWorld International, MSSRF creó Open Knowledge Network (OKN), que conecta a comunidades rurales de Asia y África para intercambiar el contenido local, el conocimiento indígena y las prácticas tradicionales [19]. Además de Internet, la OKN utiliza teléfonos celulares y la radio para comunicarse. Los eChoupals de ITC son un buen ejemplo del modelo de ingresos [20]. El Centro Nacional de Informática del gobierno de la India ha creado muchos centros en los estados nororientales [21]. Gracias a la iniciativa emprendida por la MSSRF, se ha creado una alianza nacional, quizás la mayor sociedad con participación múltiple en el desarrollo, para llevar la revolución del conocimiento a cada uno de los 638 000 pueblos de la India antes del LX Aniversario de la Independencia de la India [22]. El gobierno de la India ha asumido gran parte de los costos, por una suma de $1 500 millones de dólares. Aunque en general las tecnologías tienden a exacerbar las desigualdades y a favorecer a los primeros que las adoptan a costa de los que llegan después, gracias al libre e ilimitado flujo de información que facilita, Internet es intrínsecamente una tecnología democratizadora y puede hacer que el acceso a la información se produzca en igualdad de condiciones. ¿Cómo podemos traducir este potencial inherente en realidad? Es aquí donde reconocemos el gran valor del enfoque del ‘patrimonio común’ para el uso compartido de la información. Patrimonio común y uso compartido de la información Veamos cómo el enfoque de patrimonio común para la diseminación del conocimiento científico afecta la manera en que se realiza la investigación científica en el mundo. Este ejemplo, que ha alcanzado la madurez, muestra el impacto del concepto de patrimonio común en la difusión del acceso público internacional al contenido de la información Hace aproximadamente 15 años, Paul Ginsparg, quien entonces laboraba en el Laboratorio Nacional de Los Álamos, pensó en un archivo central para los artículos de investigación sobre física. Ahora el “arXiv” florece con sede en Cornell y tiene más de 15 sitios espejo (algunos de ellos en los países en vías de desarrollo) [23]. Steve Lawrence, quien en ese entonces trabajaba en NEC Research, Princeton, inició CiteSeer que no espera a que los autores envíen/depositen sus artículos, sino que busca en la red y recoge todos los artículos sobre informática y los campos afines [24]. Stevan Harnad creó, en Southampton, Cogprint, un archivo para las ciencias cognoscitivas [25]. También escribió algunos artículos provocativos sobre lo que él llama una “propuesta subersiva” para ampliar “scholarly skywriting” (la escritura científica en el cielo), la manera en que los científicos pueden escribir en el cielo de Internet, para que todos lo lean [26]. Después de este impulso, en los últimos años, los científicos han comenzado a depositar sus artículos de investigación, además de publicarlos en revistas arbitradas que escogen, en archivos institucionales interoperables de libre acceso. Los softwares para crear estos archivos de texto son absolutamente gratuito. El protocolo de interoperabilidad (OAI-PMH [27]) y el software asociado permite a un usuario rastrear todos los artículos sobre un tema dado o de un autor determinado desde cualquiera de los archivos (situados en cualquier parte del mundo) como si todos se encontraran en un solo archivo (universal)- todo esto es absolutamente gratuito. En la actualidad, existen más de 400 de esos archivos institucionales interoperables que proporcionan acceso a textos de muchos miles de artículos de investigación. Esto es especialmente provechoso para los científicos de los países en vías de desarrollo. Peter Suber mantiene un boletín electrónico [Open Access News] e informa exhaustivamente sobre los progresos del movimiento de libre acceso alrededor del mundo [28]. Además de los archivos de libre acceso, también hay revistas de libre acceso donde los lectores y sus bibliotecas no tienen que pagar una suscripción. Varios cientos de revistas - incluyendo una parte proveniente de los de países en vías de desarrollo - son ahora revistas de libre acceso. [29] Acceso al conocimiento en todo el mundo Se puede apreciar un paralelo entre los telecentros y los archivos de libre acceso. Ambos están utilizando los avances tecnológicos para incluir a los excluidos y poniendo a disposición una información muy necesaria a bajo costo con el enfoque de ‘patrimonio común’. Ambos están superando un serio problema al vincular de manera inteligente la tecnología y el enfoque de patrimonio común. Ambos tratan de compartir y cuidar. Ambos están eminentemente equipados para aumentar la productividad general del mundo como un todo y conducir a una mayor felicidad colectiva. Parecen casi utópicos. Pero muchos editores, incluyendo algunas sociedades científicas, están tratando de detener el progreso del movimiento de libre acceso, pues lo consideran una amenaza potencial para sus intereses comerciales. Por otra parte, muchas agencias donantes, tales como Wellcome Trust, que financian a los científicos para que realicen la investigación son ávidas partidarias del movimiento. En el área de datos científicos, a diferencia de los textos completos de los artículos de investigación, organizaciones tales como ICSU (y CODATA) están promoviendo la cultura del libre acceso. Incluso Celera Genomics Corp., la compañía con fines de lucro que obtuvo la secuencia del genoma humano simultáneamente con Human Genome Project, que lo hizo con fondos públicos, ha dejado de vender suscripciones para el acceso a su secuencia/a sus datos y donará los datos al Centro Nacional de Información Biotecnológica, EE.UU. Como planteara Francis Collins, del Instituto Nacional de Investigación del Genoma Humano, “los datos solo desean ser públicos.” Los científicos de los países en vías de desarrollo necesitan una atención particular, plantea Bruce Alberts, antiguo presidente de la Academia Nacional de Ciencias de los Estados Unidos. En su discurso presidencial de 1999 [30] ante la Academia Nacional de Ciencias de los Estados Unidos, sugirió “conectar a todos los científicos a la World Wide Web, cuando sea necesario, proporcionando un acceso subvencionado a Internet a través de las redes de satélite comerciales,” y “asumir la responsabilidad de generar un rico arsenal de recursos de conocimiento validado científicamente, puesto a disposición de manera gratuita en la Web, a modo de preparación para una época en la que el acceso universal a Internet para los científicos se logre tanto en las naciones en vías de desarrollo como en las industrializadas.” Del ciberespacio al mundo real En los primeros días de la red, se tenía la sensación de que la red nos había dado la libertad de hacer cosas independientes de los gobiernos y de la legislación nacional. De hecho, en febrero de 1996, John Perry Barlow, un activista de Internet, publicó una “Declaración de Independencia del Ciberespacio” [31]. “Gobiernos del mundo industrializado”, declaró el Sr. Barlow, “a nombre del futuro, les pido desde el pasado que nos dejen en paz. No son bienvenidos entre nosotros. No tienen ninguna soberanía donde nos reunimos. No tienen ningún derecho moral a gobernarnos ni poseen ningún método de aplicación de la ley que nos haga temer. El ciberespacio no está dentro de sus fronteras”. E Internet se convirtió en una de las herramientas más importantes de defensa ciudadana utilizada para la investigación, la educación pública, la organización, la discusión política, la coordinación y mucho más todavía. Desafortunadamente la tecnología digital también ha traído consigo nuevas formas de confinamiento de la información que minan el derecho público de utilizar, compartir y reproducir la información. Esos confinamientos amenazan con minar el discurso político, el discurso libre y la creatividad necesaria para una democracia sana. En realidad, los gobiernos pueden y tienen un considerable control sobre lo que se realiza en Internet. Como señaló The Economist, “Internet es parte del mundo real. Como todos «los Dorados», sus inicios fueron un poco salvajes, pero finalmente la policía siempre llega”. [32] El carácter democrático de Internet y su capacidad de alcanzar una base de conocimiento “casi infinita” han sido cuestionados. Si bien el alto costo, la baja calidad y la falta de acceso a Internet constituyen la primera barrera para el acceso público a Internet en los países pobres, las políticas y las actitudes institucionales y gubernamentales conducen a un segundo tipo de barrera. Como concluyera Carnegie Endowment for International Peace (CEIP), los gobiernos pueden impedir que sus ciudadanos visiten ciertos sitios que consideran dañinos para el interés nacional, controlar el acceso a los sitios extranjeros, monitorear lo que publican sus ciudadanos y aislar literalmente a su gente del resto de la red [33]. Las escuelas y los padres pueden utilizar un filtro para proteger a sus niños de la presencia cada vez mayor de sitios obscenos en la red. ¿De qué otra forma podemos protegernos a nosotros mismos y a nuestros niños de la amenaza que constituye la presencia en la red de la desnudez, de los actos sexuales, de las drogas, del alcohol, del tabaco, de la violencia y la profanidad, de los cultos, de los grupos racistas, extremistas e intolerantes, del juego ilegal y de las empresas de negocios fraudulentos? El desafío consiste en encontrar un equilibrio entre nuestra búsqueda de libertad y aperturta, y la necesidad de frenar la pornografía, la obscenidad y la intolerancia. Ese es el gran dilema que enfrentan las bibliotecas que ofrecen acceso público a Internet. Mientras casi todas las bibliotecas públicas de los EE.UU. proporcionan a sus clientes acceso gratuito a Internet, la situación es desastrosa en casi todos los países en vías de desarrollo. Como planteara Nancy Kranich, el acceso público a Internet es esencial para revitalizar la participación cívica, así como para reclamar el espacio público y promover el interés público en la era digital. Existen dos formas de considerar el acceso público a Internet: Permitir a los ciudadanos de todo el mundo utilizar las herramientas de la red de información para acceder a la información disponible, así como crear su propia información y difundir sus habilidades. Asegurar el acceso libre a la información esencial, de modo que las oportunidades proporcionadas por Internet sean utilizadas realmente para que todo el mundo pueda acceder al conocimiento. Mujeres Mavic Cabrera-Balleza El tema de la información y la comunicación es clave en el discurso feminista y en la práctica política cotidiana de las militantes del movimiento feminista. Es clave porque aborda aspectos como el lenguaje y las formas de expresión que no solo reflejan las realidades sociales y las relaciones de género y poder, sino también conforman, definen y dictan cómo deben ser esas relaciones de género y poder. Las herramientas y metodologías de la información y la comunicación reproducen las desigualdades, las contradicciones y los prejuicios de la sociedad. Por otro lado, también pueden ser cruciales en la educación y movilización de las personas para enfrentar las desigualdades y prejuicios sociales que afectan a las mujeres. A la vez, pueden servir de instrumentos para subvertir las instituciones sociales patriarcales, así como para promover la igualdad de sexos y el otorgamiento de responsabilidades a las mujeres. Desarrollo y evolución de una agenda feminista en la sociedad de la información Las tecnologías de la información y las comunicaciones (TIC) han cambiado considerablemente las maneras en que las mujeres se informan y se comunican entre sí y con sus respectivas comunidades geopolíticas locales, nacionales, regionales e internacionales. También han contribuido positivamente al desmantelamiento de las barreras para el acceso a los medios de comunicación, de modo que permiten que más mujeres realicen y distribuyan producciones en los medios de comunicación que expresen correcta y adecuadamente sus problemas, sus preocupaciones y sus aspiraciones. Las TIC han ampliado el alcance de medios de comunicación establecidos, como la radio comunitaria. Además, los nuevos métodos de redes electrónicas han hecho posible que las mujeres adquieran nuevas habilidades, identifiquen nuevos contactos y consoliden sus redes. Evidentemente, las TIC han sido y continúan siendo importantes herramientas para fomentar la solidaridad y facilitar la creación de estructuras que apoyen las luchas populares por alcanzar una paz verdadera y un tratamiento equitativo de los géneros. Sin embargo, aunque las TIC ofrecen una amplia gama de oportunidades, también contribuyen a ampliar la diferencia entre los que tienen acceso a los recursos y los que no lo tienen. Existe una gran división de géneros dentro de la división digital. En todo el mundo, las mujeres enfrentan barreras económicas, sociales, culturales y políticas que las limitan o les impiden acceder a las tecnologías de la información y las comunicaciones y beneficiarse de ellas. Por consiguiente, resulta imperativo que las activistas feministas entiendan el discurso tecnológico, socioeconómico y político presente en las TIC. Es esencial que examinen constantemente las potencialidades y los impactos de las TIC, con el objetivo de emplearlas como herramientas eficaces en la organización feminista y en un activismo social más amplio. Los inicios El impacto de las tecnologías de la información y las comunicaciones en las mujeres se evidenció por primera vez durante el proceso preparatorio de la Cuarta Conferencia Mundial de Mujeres, que tuvo lugar en Beijing, China, en 1995. El trabajo de información y diseminación para estimular a las mujeres del mundo a participar fue realizado por organizaciones femeninas a través del correo electrónico, una herramienta que muchas de ellas estaban aprendiendo a utilizar precisamente en ese momento. Cuando el Comité Organizador Chino anunció de repente, en marzo de 1995, que el Foro de las ONG de Mujeres cambiaba su sede del centro de Beijing a un sitio ubicado a 64 kilómetros, en Huairou, el Centro Internacional de la Tribuna de la Mujer envió un alerta urgente a WOMENET, una red por fax compuesta por 28 redes de medios de comunicación de mujeres de todo mundo surgida después de un taller de medios de comunicación de mujeres realizado en Barbados, en 1991. Cada red de medios de comunicación de mujeres envió el mensaje por fax a su propia red en cada región del mundo y, rápidamente, decenas de miles de firmas fueron enviadas en señal de protesta a las Naciones Unidas y al Comité Organizador Chino en Beijing. Desgraciadamente, esto no hizo que los anfitriones chinos cambiaran de parecer, aunque sirvió para que redoblaran sus esfuerzos con vistas a proporcionar mejores alojamientos e instalaciones en Huairou. Sin embargo, mostró cuán rápida y eficazmente las mujeres podrían contactarse y apoyarse entre sí en tiempos de crisis, lo que constituyó un momento de fortalecimiento para las mujeres a escala internacional [1]. En América Latina (que estaba más avanzada en ese momento en cuanto a la conectividad por correo electrónico que Asia-Pacífico asiático o África), una gran cantidad de mujeres se beneficiaron con las facilidades de comunicación en línea disponibles durante la preparación de la Conferencia de Beijing. En otras regiones, las mujeres empleaban una combinación de nuevas TIC con otros medios y facilidades de comunicación entre las que se incluían teléfono, fax, y reuniones personales. Durante la conferencia en Beijing, la Asociación para el Progreso de las Comunicaciones organizó un equipo de 40 miembros, todas mujeres, que brindó servicios plenos de Internet a todos los participantes del Foro de ONG de Beijing y a la conferencia intergubernamental. Mujeres y hombres de todo el mundo pudieron acceder a la información procedente directamente del Foro de ONG y de la conferencia a través del correo electrónico, de conferencias electrónicas y páginas Web [2]. La participación femenina en los preparativos regionales y mundiales del encuentro de Beijing contribuyó evidentemente a crear una red de mujeres preocupadas por los temas y las políticas de género y las TIC. No obstante, a pesar del empleo relativamente popular de las tecnologías en la fase preparatoria y durante el Foro de ONG y la Conferencia de Beijing, la Plataforma de Acción de Beijing, principal documento emanado de la conferencia, no abordó adecuadamente los temas de género y las TIC. Al reflexionar sobre lo ocurrido, solo puede decirse que ni la sociedad civil ni los gobiernos previeron en ese momento el impacto que tendrían las nuevas TIC en las mujeres. Lo estipulado en la sección Mujeres y Medios de Comunicación (sección J) de la Plataforma de Beijing con respecto a las TIC se limitó a mejorar las habilidades, los conocimientos y el acceso de las mujeres a las tecnologías de la información. No obstante, la Conferencia de Beijing marcó un giro decisivo en la defensa de la mujer en los aspectos relacionados con la comunicación y las TIC. Amplió y profundizó el discurso sobre la mujer y la comunicación, que hasta ese momento se había centrado casi exclusivamente en las imágenes negativas y estereotipadas de las mujeres en los medios de comunicación. La Conferencia de Beijing permitió la introducción del concepto de las mujeres como participantes claves en el campo de los medios de comunicación y las TIC, tanto a escala tecnológica como en la elaboración de políticas. También subrayó la necesidad de subvencionar los requerimientos de la infraestructura y los esfuerzos experimentales [sobre] el empleo de las TIC. Además, fomentó el empleo de las tecnologías como un medio para fortalecer la participación de la mujer en los procesos democráticos. Algunas de las organizaciones que han influido en los debates sobre los medios y las TIC en la Conferencia de Beijing fueron la Agencia Latinoamericana de Información, la Asociación para el Progreso de las Comunicaciones, el Programa de Apoyo a la Red de Mujeres, Isis International, el Centro Internacional de Tribuna de la Mujer, y la Asociación Mundial para la Comunicación Cristiana. Estos grupos, junto a otros participantes de la sociedad civil continuaron participando activamente en los espacios de debate sobre el género, los medios y TIC, y durante el proceso han sentado precedentes en términos de propuestas de la política sobre las TIC. Entretanto, como una contribución a la conferencia de Beijing, la Comisión de las Naciones Unidas sobre Ciencia y Tecnología para el Desarrollo (UNCSTD, por sus siglas en inglés) llevó a cabo un abarcador conjunto de estudios sobre las relaciones entre género, ciencia y tecnología, y desarrollo. Los informes sobre este estudio revelaron que existían importantes diferencias de género en los niveles de acceso, control y beneficios obtenidos de una amplia gama de desarrollos tecnológicos. Específicamente con respecto a las TIC, el estudio realizado por la UNCSTD concluyó que la revolución de la información al parecer no tenía en cuenta a las mujeres, que la literatura sobre la sociedad de la información no se refería a los temas de género, y que ni las investigaciones ni los proyectos prácticos en el campo de la tecnología de la información habían abordado las circunstancias particulares de las mujeres [3]. Inclusión en la agenda internacional Cinco años después cambiaron considerablemente los puntos de vista sobre las TIC, tanto desde las perspectivas de las instituciones de mujeres y de género, como desde las del propio movimiento feminista. En el análisis de la Plataforma de Beijing, realizado en el año 2000, se prestó gran atención a las TIC y su impacto en las mujeres. El análisis de la puesta en práctica de la Plataforma de Acción de Beijing, realizado en el año 2000, reconoció las crecientes oportunidades puestas a disposición de las mujeres mediante el empleo de las TIC -compartir conocimientos, trabajar en red y comercio electrónico. Sin embargo, también mostró que la pobreza, la falta de acceso a la infraestructura de las telecomunicaciones, las barreras lingüísticas, el desconocimiento de la computación y el analfabetismo impiden a las mujeres utilizar las tic, incluyendo Internet. En los años posteriores a la Conferencia de Beijing ha aumentado considerablemente el reconocimiento internacional de los temas de género y las TIC. Las mujeres han aprovechado los espacios nacionales, regionales e internacionales de discusión sobre las TIC. Ellas han ejercido presiones sobre los gobiernos nacionales, los organismos intergubernamentales que dictan la política de género, así como sobre las instituciones de telecomunicaciones. Documentos recientes de política internacional han reconocido las implicaciones de género de las nuevas TIC y han identificado el perfeccionamiento y desarrollo de las habilidades de las mujeres, su conocimiento, empleo y acceso a las tecnologías de la información como grandes retos para la Sociedad de la Información. Global Knowledge 97 (GK 97) fue la primera gran conferencia internacional en explorar el potencial de las tecnologías de la información y su posible impacto en los países en desarrollo. Una intensa campaña de correo electrónico y cabildeo institucional, iniciada por el Comité ad hoc de Mujeres en GK97, trajo como resultado una considerable participación femenina y constituyó un paso importante en la inclusión de las mujeres en la agenda del “conocimiento para el desarrollo”. El Precepto sobre Género, Asociaciones y Desarrollo de las TIC emanado de esta reunión reconoció “la importancia de las nuevas TIC como un medio para reunir y distribuir nuestros conocimientos y herencia compartidos.” Plantea que todas las facetas de ingeniería, diseño, desarrollo y entrega de las TIC deben incluir la igualdad de géneros o de lo contrario correrán el riesgo de no ser eficaces. Entre las acciones prioritarias que considera necesarias se encuentran [4]: incorporar el análisis de género a toda la investigación de política científica y tecnológica; desarrollar y subvencionar evaluaciones del impacto de las nuevas TIC en las necesidades de comunicación de las mujeres; y proporcionar adiestramientos, sistemas de acceso y entrega, incluyendo versiones desarrolladas para mujeres. Por su parte, la Unión Internacional de Telecomunicaciones (UIT), actuando según una resolución adoptada en 1998 en la Conferencia Mundial para el Desarrollo de las Telecomunicaciones, en Valetta, Malta, creó el Grupo de Expertos sobre los temas de género (TFGI) dentro de su Sector de Desarrollo de las Telecomunicaciones. Su misión era trabajar con vistas a asegurar que los beneficios de las telecomunicaciones y de la emergente sociedad de la información estuvieran a disposición de todas las mujeres y hombres en los países en desarrollo sobre una base justa y equitativa. También tenía como objetivo estimular la contratación, el empleo, el adiestramiento y la promoción de las mujeres en el campo de las telecomunicaciones [5]. En 2002, después de la Conferencia Mundial de Desarrollo de las Telecomunicaciones (CMDT) en Estambul, Turquía, se adoptó una nueva resolución que convirtió al TFGI en un Grupo de Trabajo sobre los temas de género al que se asignaron recursos provenientes del gobierno de Noruega. La CMDT también instó a incluir una perspectiva de género en los temas y en el trabajo de la Cumbre Mundial sobre la Sociedad de la Información (CMSI). Antes de la creación del Grupo de Trabajo sobre los temas de género, la UIT, el Programa de las Naciones Unidas para el Desarrollo (PNUD) y el Fondo de Desarrollo de las Naciones Unidas para la Mujer (UNIFEM) firmaron un memorando de entendimiento para colaborar en el desarrollo de estrategias sensibles al género para el desarrollo de las telecomunicaciones y de la política de las TIC, en julio del año 2000. En noviembre de 2002, la División de las Naciones Unidas para el Progreso de la Mujer efectuó en Seúl, Corea, una Reunión del Grupo de Expertos sobre “tecnologías de la información y las comunicaciones y su impacto y empleo como instrumento para el desarrollo y la habilitación de las mujeres”. Los participantes en la reunión presentaron varios ejemplos de cómo las mujeres marginadas utilizaban las TIC para capacitarse. Sin embargo, también subrayaron que estos ejemplos no eran suficientes. Una de las conclusiones a que llegaron es que aún existe una falta general de análisis de género en la formulación de la política de las TIC y en la presentación del programa. Los resultados de la reunión sirvieron como puntos de partida para la sesión de la Comisión de la Condición de la Mujer de 2003, así como para la primera fase de la CMSI celebrada en Ginebra en diciembre de 2003. Los géneros y la Cumbre Mundial sobre la Sociedad de la Información (CMSI) La CMSI es uno de los grandes eventos internacionales en que menos participación tienen las militantes feministas. Una de las razones para ello podría ser la escasez de fondos para asistir a las reuniones preparatorias. Sin embargo, la razón más convincente es la falta de comprensión del proceso y la apreciación de la relación entre los problemas y la lucha de las mujeres por alcanzar la igualdad de géneros. No obstante, se han logrado éxitos considerables en lo referente a la incorporación de los temas de género en los documentos oficiales emanados de la fase de la Cumbre de Ginebra. Dos grupos contribuyeron activamente a asegurar las perspectivas de género en todas las discusiones en la primera fase de la CMSI. Estos fueron la ONG Grupo de Trabajo de Estrategias de Género (GSWG) y el Comité de Género (GC) de la CMSI. El GSWG se formó en la primera Reunión del Comité Preparatorio de la CMSI en Ginebra, en julio de 2002, como uno de los subcomités del Grupo de Coordinación de la Sociedad Civil (CSCG). Los grupos involucrados en este esfuerzo fueron: la Red de Mujeres Africanas para el Desarrollo y las Comunicaciones (FEMNET), la Agencia Latinoamericana de Información, Asociación para el Progreso de las Comunicaciones - Programa de Apoyo a la Red de la Mujer, Centro Internacional de Tribuna de las Mujeres, e Isis International-Manila. La ONG Grupo de Trabajo de Estrategias de Género moderó la discusión [email protected], una lista de correo electrónico dirigida a trazar estrategias y organizar la participación de las mujeres en el proceso de la CMSI. [email protected] tenía como objetivo crear iniciativas sobre la igualdad de sexos y las TIC y fomentar el enriquecimiento de las discusiones en beneficio de todas las mujeres. Por otro lado, el CG es un grupo multi-participativo de mujeres y hombres de gobiernos nacionales, de la sociedad civil y las organizaciones no gubernamentales, del sector privado y del sistema de las Naciones Unidas. El objetivo estratégico del Comité de Género de la CMSI es asegurar que la igualdad de géneros y los derechos de las mujeres se integren a la CMSI y a sus procesos resultantes. El Comité de Género de la CMSI fue creado durante la conferencia regional preparatoria africana que tuvo lugar en Bamako, Mali, entre el 25 y el 30 de mayo de 2002 [6]. Estos grupos contribuyeron positivamente a la inclusión de un texto en la Declaración de Principios y Plan de Acción de la CMSI que refleja los análisis y las perspectivas de género. A continuación aparecen algunas de las recomendaciones adoptadas en los documentos oficiales de la CMS [7]: Habilitación para una participación plena. La alfabetización y la educación primaria universal son factores esenciales para crear una Sociedad de la Información plenamente integradora, teniendo en cuenta en particular las necesidades especiales de las niñas y las mujeres (Declaración de principios, Creación de Capacidades, párrafo 4). Procurar eliminar los obstáculos de género que dificultan la educación y la formación en materia de TIC, y promover la igualdad de oportunidades de capacitación para las mujeres y niñas en los ámbitos relacionados con las TIC. Se debe incluir a las niñas entre los programas de iniciación temprana en las ciencias y la tecnología, para aumentar el número de mujeres en las carreras relacionadas con las TIC. Promover el intercambio de prácticas óptimas en la integración de los temas de género en la enseñanza de las TIC (Plan de Acción, Desarrollo de Capacidades, párrafo 11g). Se alienta a los gobiernos a que, en colaboración con las partes interesadas, definan políticas de las TIC que propicien la actividad empresarial, la innovación y la inversión, haciendo especial hincapié en la promoción de la participación de la mujer (Plan de Acción, Ambiente propicio, párrafo 13l). Alentar la definición de prácticas óptimas para los cibertrabajadores y los ciberempleadores basadas, a escala nacional, en los principios de justicia e igualdad de género y en el respeto de todas las normas internacionales pertinentes (Plan de Acción, Ciberempleo, párrafo 19a). Promover programas de iniciación temprana de las niñas jóvenes en la esfera de la ciencia y la tecnología, para acrecentar el número de mujeres en carreras relacionadas con las TIC. (Plan de Acción, Ciberempleo, párrafo 19d). En la segunda fase de la CMSI, que tendrá lugar en Túnez en noviembre de 2005, los grupos de mujeres esperan poder fortalecer los principios de igualdad de sexos formulados en la Declaración de Principios de la Cumbre. Las militantes femeninas consideran que los principios de género incluidos en el documento final (a saber, “Afirmamos que el desarrollo de las TIC brinda ingentes oportunidades a las mujeres, las cuales deben ser parte integrante y participantes clave de la Sociedad de la Información. Nos comprometemos a garantizar que la Sociedad de la Información fomente la potenciación de las mujeres y su plena participación, en pie de igualdad, en todas las esferas de la sociedad y en todos los procesos de adopción de decisiones. A dicho efecto, debemos integrar una perspectiva de igualdad de género y utilizar las TIC como un instrumento para conseguir este objetivo.”) son más débiles que los del texto contenido en los anteproyectos de la declaración [8]. Además, desean asegurar que los problemas e inquietudes de las mujeres se integren a las discusiones sobre la gobernanza y los mecanismos de financiamiento de Internet, los dos temas principales que serán abordados en la segunda fase de la Cumbre en Túnez. Existen varios problemas a los que se enfrentan las militantes feministas en la elaboración de políticas de género y las TIC y en la implementación del programa. A continuación presentamos algunos de esos problemas. Acceso El tema del acceso es fundamental en el discurso de género y las TIC. El acceso está indisolublemente relacionado con la disponibilidad de la infraestructura necesaria, y en casi todos los países en desarrollo las infraestructuras de comunicación son menos estables y están menos disponibles en las áreas rurales y urbanas pobres, donde vive la mayoría de las mujeres. Como señalaron la UNIFEM y la UNU/TECH: “A las mujeres, que tienen responsabilidades especiales con los niños y los ancianos, les resulta más difícil que a los hombres migrar a los pueblos y ciudades. Por consiguiente, el carácter urbano de la posibilidad de conexión priva a las mujeres, más que a los hombres, del derecho universal a la comunicación” [9]. El tema del acceso es considerado también como la manifestación más concreta de la división de género dentro de la división digital. Esto se aprecia en el hecho de que son menos las mujeres que utilizan las TIC en comparación con los hombres. Por ejemplo, la mayoría de las mujeres del mundo no emplea Internet y, por consiguiente, está excluida de la World Wide Web. La división digital dentro de los países refleja ampliamente la división de género. La tendencia a la diferenciación en el uso comenzó antes, como se aprecia en los Estados Unidos, donde los chicos tienen cinco veces más probabilidades que las chicas de usar las computadoras en casa y los padres gastan dos veces más en productos de las TIC para sus hijos que para sus hijas [10]. También hay que vencer barreras socioculturales con respecto al acceso de las mujeres a las TIC. Esto incluye el analfabetismo, el desconocimiento del inglés y de otros idiomas dominantes en Internet, la ausencia o falta de adiestramiento en computación, las responsabilidades domésticas y el hecho de que la información ofrecida por las TIC no es tan valiosa para ellas. Además, las mujeres ganan menos y tienen menos recursos disponibles que los hombres para gastar en las comunicaciones. Adicionalmente, los cafés de Internet están situados en lugares de difícil acceso para las mujeres o que culturalmente están considerados inapropiados para ellas. Con frecuencia, los servicios de comunicación en los países en desarrollo se encuentran en las oficinas o en espacios públicos que operan en horario de oficina. Teniendo en cuenta las múltiples tareas basadas en el género y las responsabilidades reproductivas asignadas a ellas, las mujeres tienen poco tiempo extra y puede suceder que esos centros de acceso público no estén abiertos en el momento en que las mujeres pueden visitarlos. Algunos centros de comunicación están abiertos durante la noche, pero debido a las limitaciones culturales o a la falta de seguridad general para salir de noche, las mujeres optan por no visitarlos. Obviamente, es necesario crear algunos establecimientos y otras condiciones que aseguren a las mujeres la igualdad de género en el acceso y uso de las TIC. Formación, adiestramiento, y desarrollo de capacidades En todo el mundo, las mujeres están condicionadas culturalmente de forma tal que son desalentadas a seguir la ciencia y las matemáticas. Históricamente, la ciencia y la tecnología han sido consideradas campos masculinos, y si existía algún papel para las mujeres, sería aquel en el que se convertían en mano de obra gratis en experimentos aburridos que requerían gran paciencia, confiabilidad y capacidad para emprender tareas tediosas durante largos períodos, en las que ponían en práctica las cualidades “femeninas” de perseverancia y paciencia. El hecho de que las mujeres y las jóvenes tengan menos acceso a la educación es un factor principal que contribuye a que no se beneficien igual de las oportunidades que ofrecen las nuevas TIC. Por ejemplo, de los 300 millones de niños sin acceso a la educación, dos tercios son niñas. De manera similar, las mujeres constituyen dos tercios de los 880 millones de adultos analfabetos que existen en el mundo [11]. Sophia Huyer, Directora ejecutiva del Comité Asesor de Género de la Comisión de las Naciones Unidas sobre Ciencia y Tecnología para el Desarrollo (UNCSTD), describe el desgaste sostenido de las jóvenes y mujeres a lo largo del sistema formal de ciencia y tecnología (CyT), desde la educación primaria hasta la toma de decisiones de CyT como un “conducto agujereado” [12]). Nancy Hafkin, Directora de la Knowledge Working Consulting Firm y ex-jefa de la Sección de Información para el Desarrollo, UNECA, plantea que los agujeros se encuentran en todas las fases del proceso como resultado de un conjunto de barreras para las jóvenes y mujeres, y pueden dividirse en cuatro categorías: Barreras culturales y actitudinales, como las percepciones sobre el papel y el estatus de las mujeres. Barreras contextuales, que incluyen la falta de compromiso familiar, la falta de apoyo de la pareja y el hecho de vivir en áreas rurales o aisladas. Barreras de calificación; a menudo la falta de formación formal en matemática y ciencias o la falta de experiencia en las técnicas de programación de computadoras se perciben como una barrera, tanto por los departamentos de admisiones como por los estudiantes y maestros. Barreras institucionales que bloquean el acceso de las mujeres al estudio de la ciencia y la tecnología. Entre esas barreras se encuentran la carencia de maestras y las presunciones de los maestros sobre las capacidades de las estudiantes; la falta de flexibilidad en las admisiones; los requisitos de selección y entrada, que no tienen en cuenta las diferencias en cuanto a los antecedentes educacionales, los enfoques y las habilidades de las mujeres; y los rígidos requisitos de asistencia a las prácticas y al trabajo de laboratorio, cuyo cumplimiento resulta más difícil para las mujeres debido a sus responsabilidades familiares y domésticas [13]. Willie Pearson Jr., Director de la Escuela de Historia, Tecnología y Sociedad en el Georgia Institute of Technology’s Ivan Allen College, valida las observaciones de Huyer y Hafkin: “Es obvio por qué las mujeres no pueden asistir a nuestras facultades. Esperamos que ellas trabajen el doble que los hombres, que formen parte de los comités y se ocupen de la crianza y otros cientos de cosas mientras realizan su investigación, tutoran a los estudiantes graduados y tienen su vida personal,” señaló Pearson durante la reunión nacional de la Sociedad Norteamericana de Química, celebrada en Chicago, en agosto de 2001. Empleo El panorama de empleo en la industria de las TIC está dominado por el sexo masculino. Por lo general, las mujeres trabajan en niveles más bajos y están relegadas a la introducción de datos, al procesamiento de textos y al trabajo de transcripción. Ello refleja patrones de formación y adiestramiento en las TIC, en los que las mujeres jóvenes tienden a ser la gran mayoría de la matrícula en cursos de computación para trabajar en una oficina, pero solo un pequeño grupo de ellas estudia programación o ingeniería en computación. Business Process Outsourcing (BPO), el segmento de servicios de trabajo en las TIC, es actualmente el único gran empleador de mujeres en el área de la tecnología. Se refiere a la subcontratación de procesos y funciones comerciales en las áreas de administración, finanzas, recursos humanos, logísticas de distribución, servicios industriales, ventas, marketing y protección al cliente en lugares que pueden ofrecer estos servicios a un costo más bajo a través de enlaces de transmisión de datos a alta velocidad que garantizan la entrega oportuna de los datos y servicios [14]. Existen diferentes tipos de trabajo en las BPO que incluyen los centros de llamada de asistencia al cliente, los proveedores de ayuda por correo electrónico, los transcriptores médicos y los procesadores de las demandas de seguros. Cada vez son mayores los debates sobre las implicaciones del empleo en las empresas de BPO - en particular sus implicaciones en las vidas y trabajos de las mujeres. La principal pregunta que ha surgido es: ¿Constituye el empleo en las BPO una participación sensible al género de las mujeres en la sociedad de la información? Por una parte, los críticos plantean que el trabajo en las BPO, particularmente en los centros de llamadas, está centrado en aspectos culturales de autolimitación, donde la prioridad número uno es adquirir un acento americano o británico, un lenguaje y una cultura populares, así como adoptar nombres americanos o británicos (no se puede ser Lakhsmi o Deepa y, por consiguiente, hay que adoptar nombres como Anne o Debbie). Kalyani Menon-Sen, de Jagori, un centro de recursos, comunicación y documentación de mujeres feministas, en la India se refiere a esta tendencia de empleo como una “simplificación de una generación” porque es “abrumadora y una pérdida de habilidades - aquí no se aplican el conocimiento y las habilidades adquiridas en la escuela y en la universidad. El propio trabajo es aburrido y estresante, y se pretende que las jóvenes mantengan la compostura y la paciencia incluso ante los insultos verbales de clientes encolerizados [15].” La razón principal para establecer las empresas de BPO en la India, Filipinas y Brasil es disminuir el costo de las operaciones multinacionales. Existen informes que indican que los salarios que reciben las mujeres en las empresas de BPO en los países en desarrollo son hasta un 80% más bajos que los que reciben en los países desarrollados [16]. De hecho, un buen incentivo para que las compañías multinacionales mantengan, e incluso aumenten sus márgenes de ganancia. Otra forma de BPO es la que se conoce generalmente como trabajo tecnológico desde la casa. Las mujeres que trabajan en esas áreas están en peor situación que las que trabajan en los centros de llamada, porque reciben salarios más bajos en relación con las que trabajan en el sector organizado y están sujetas a contratos de trabajo inseguros - si es que existe algún contrato. Estas mujeres, llamadas asistentes virtuales, son un número considerable - de nuevo en la India y Filipinas, debido a su conocimiento del idioma inglés y a que poseen habilidades de computación relativamente más avanzadas. Realizan transcripciones médicas y legales y llevan la contabilidad diaria de pequeñas empresas ubicadas en los países del Norte. Aunque aparentemente se benefician de la flexibilidad de poder trabajar en casa en un horario menos limitado, las múltiples cargas sobre las mujeres se hacen más definidas debido a que realizan su trabajo además de todos los quehaceres domésticos normales que se espera de ellas. Las mujeres que trabajan en esta industria basada en la tecnología también tienen que hacer grandes inversiones para obtener el empleo. Compran sus propias computadoras, pagan la electricidad y la conexión a Internet. Por lo general, las mujeres todavía no figuran en los puestos de gerente y de toma de decisiones en la industria de las TI. La mayoría de ellas tampoco es considerada como profesionales de las TI debido a que el empleo en la BPO no es un empleo profesional en las tecnologías de la información. El desarrollo de hardware y el de software son los únicos considerados como trabajos profesionales, aunque, sin dudas, son áreas dominadas por hombres. Indiscutiblemente, el trabajo en las empresas de BPO perpetúa la desvalorización de la mano de obra femenina. Además, se están reproduciendo patrones de segregación de la mujer en los que los hombres ocupan la mayoría de los empleos de mayor calificación, y de alto valor añadido, mientras las mujeres se concentran en empleos de menor calificación y menor valor añadido. Por otro lado, algunos estudiosos de los temas de género y las TIC, como Swasti Mitter, consideran que la subcontratación en el extranjero de trabajos de procesamiento de la información ofrece mayor oportunidad para la habilitación económica de las mujeres, que indica un “beneficio sin precedentes” que se ofrece a las mujeres que trabajan en estas áreas en la India, Malasia y las Filipinas, con salarios que generalmente oscilan en alrededor de los $5000 anuales - casi una fortuna para las mujeres de los países pobres donde el ingreso per cápita está por debajo de los $500 anuales. Según Mitter, “este es uno de los casos donde es posible afirmar sin temor a equivocarnos que la globalización ha traído ganancias para algunos países en desarrollo y para las mujeres que viven en ellos” [17]. Consciente del síndrome de la apatía, con el que las mujeres salen del estrés, la ansiedad y la fatiga mental del trabajo de BPO, Mitter sostiene que en dichos empleos los beneficios para las mujeres son superiores a los costos. Ella cita a la BPO como una dimensión positiva de la globalización para la que... los gobiernos nacionales deben crear un ambiente político para captar una parte mayor del mercado global en el procesamiento de la información y asegurar su sostenimiento y reproducción. Es importante ser consciente de la desventaja de este tipo de empleo y educar al sector laboral y al público para poder exigir mejores condiciones de trabajo para las mujeres en la industria de las TI. Contenido El campo del diseño y el desarrollo del contenido en línea y de los nuevos medios de comunicación está dominado principalmente por los hombres y por el Norte. Esto define la calidad de la información disponible en Internet y en otros medios basados en la tecnología, como los juegos de video. Por tanto, no resulta sorprendente que las imágenes de mujeres predominantes en Internet y en las producciones de los nuevos medios de comunicación sean estereotipadas, altamente sexualizadas y a menudo sexistas, y reflejen la cultura popular y los estilos de vida de los creadores del contenido. Las voces femeninas, portadoras de las experiencias, conocimientos, inquietudes y preocupaciones de las mujeres no están reflejadas suficientemente. Además, la mayoría de las mujeres del mundo no hablan los idiomas dominantes de Internet - es decir, inglés, francés, alemán, japonés, y chino. Hay que señalar también que no solo el contenido en línea se produce en estos idiomas - incluso el lenguaje de programación se basa fundamentalmente en el inglés. La falta de conocimiento es un factor importante que limita los beneficios que las mujeres pueden obtener de las TIC - si no es que las excluye totalmente. Las productoras individuales femeninas y las organizaciones de mujeres en el mundo han enfrentado este desafío con mucha creatividad e iniciativa. La radio Feminist International Radio Endeavor’s Internet salva el vacío existente entre la comunicación para las personas sin instrucción y las nuevas TIC. La transmisión en español, inglés, y en ocasiones en otros idiomas, como portugués y francés, llega a una amplia audiencia sin necesidad de disponer de un estudio totalmente equipado o incluso de una licencia para utilizar las ondas sonoras. La estación de Internet fire’s combina la Internet con otros medios para crear un espacio interactivo dirigido a aumentar al máximo la participación de las oyentes femeninas a través de cartas, listas de correo electrónico, acuerdos de retransmisión con las estaciones de radio comunitarias, y los sitios Web conectados [18]. El Centro Internacional de Tribuna de las Mujeres produjo un disco compacto o “libro de computadora” innovador e interactivo para mujeres empresarias rurales africanas que tienen acceso a una computadora a través de un telecentro, pero no poseen experiencia de cómo usarlas. El disco ofrece consejos de cómo mejorar los rendimientos de las cosechas y el ganado, cómo comercializar lo que se produce y cómo ayudar a las mujeres a pensar en los nuevos productos que ellas pueden hacer y vender. Doblado en inglés y ugandés, el contenido del disco compacto también está disponible en línea para uso directo, gratis, para quienes tienen acceso a una conexión de Internet. Durante los eventos internacionales, tales como la revisión de 10 años de la Plataforma de Acción de Beijing, en Nueva York, en marzo de 2005, miembros de Asia-Pacific Women’s Watch traducen sus informes in situ al ruso y al kirguiz y los distribuyen a sus redes. A pesar de los limitados recursos, las militantes femeninas producen continuamente contenidos diversos y relevantes y encuentran las vías para hacer uso de las TIC de manera eficaz y significativa en las vidas de las mujeres. Explotación y acoso sexual No se puede hablar sobre las mujeres e Internet y el contenido de los nuevos medios de comunicación sin hacer referencia a asuntos tales como la pornografía, el acoso por correo electrónico, el “flaming” (abuso verbal en línea), y el ciberacecho. Se han informado numerosos casos de hombres que utilizan los sitios Web para acosar a las mujeres y violar su privacidad. Se estima que 10% de las ventas por Internet son de naturaleza sexual, en forma de libros, video clips, fotografías, entrevistas en línea u otros artículos. Las innovaciones técnicas facilitan la explotación sexual de mujeres y niños, porque permiten a las personas comprar, vender e intercambiar fácilmente millones de imágenes y videos de explotación sexual de mujeres y niños. Estas tecnologías permiten a los depredadores sexuales ofender o explotar a mujeres y niños de manera eficaz y anónima. Como resultado del enorme mercado de pornografía existente en la Web y la competencia entre los sitios, las imágenes pornográficas son cada vez más crudas, más violentas y más degradantes [19]. El barato acceso a las tecnologías de comunicación internacional permite a los usuarios llevar a cabo estas actividades desde la privacidad de sus casas [20]. La Internet también se ha convertido en un instrumento para la prostitución y el tráfico de mujeres. En 1995, aproximadamente 1.8 millones de mujeres y jóvenes fueron víctimas del tráfico ilegal, y las cifras van en ascenso. La red es utilizada para anunciar viajes de prostitución para hombres de los países industrializados. Luego los hombres viajan a los países más pobres para conocer y comprar a jóvenes y mujeres prostitutas [21]. Los comerciantes y traficantes sexuales utilizan anuncios de trabajo en línea y sitios de servicio de contactos para anunciar y buscar información sobre las jóvenes y mujeres que ejercen la prostitución en el mundo. Los grupos de mujeres han planteado su demanda de seguridad y garantía en línea en muchas instancias. Han pedido a los gobiernos que emprendan acciones, pero a la vez son cuidadosas con la aplicación de medidas legislativas, porque esto podría usarse como argumento para que el Estado intervenga y censure las TIC. El género en la política de las TIC El cabildeo y la defensa alrededor de la elaboración de la política de las TIC es un área en que los grupos femeninos de información y comunicación están desempeñando un activo papel. Las mujeres lo consideran como algo imperativo, porque si el análisis y las perspectivas de género no se reflejan en la política, tampoco aparecerán en la implementación del programa. Actualmente, las mujeres tienen muy poca participación e influencia en los procesos de elaboración de políticas y de toma de decisiones sobre las TIC, debido a que no están representadas en el sector privado y en los organismos gubernamentales e intergubernamentales que controlan este campo. Una investigación realizada en seis países (Australia, Japón, India, Malasia, Filipinas y la República de Corea), encargada por la Comisión Económica y Social de la onu para Asia y Pacífico en 2001, con el objetivo de analizar el marco político y el ambiente legislativo regional de las TIC, demostró la falta de atención a los objetivos de igualdad de sexos y al avance de las mujeres en las estructuras y estrategias nacionales de desarrollo de las TIC. Las principales áreas de resultado, comunes en las estructuras políticas de los países cubiertos en el estudio, fueron: la existencia de una infraestructura de redes y telecomunicaciones, la facilitación del comercio electrónico y de oportunidades de trabajo, el desarrollo de los recursos humanos, así como la promoción de la buena gobernanza y la participación de los ciudadanos. La mayoría de los marcos políticos nacionales y los planes estratégicos de TI existentes, por lo general, no abordan los temas de género o centrados en la mujer. La igualdad de sexos no es un tema explícito en los planes nacionales de las TIC [22]. Sin embargo, deben señalarse algunos hechos positivos. La República de Corea ha comenzado a dar los primeros pasos para integrar la agenda de igualdad de sexos al marco de la política nacional de TI. En el área de planificación y gestión de la política, el gobierno australiano implementa métodos estadísticos y de recogida de datos que tienen en cuenta los géneros con respecto a su política de las TIC y de comercio electrónico. Esencialmente, tanto los elaboradores de políticas de las TIC, como los defensores de la igualdad de sexos, deben ser conscientes de la importancia del género en la política de las TIC. Los que elaboran la política deben comprender que las políticas serán más eficaces y sensibles a las necesidades de sus electores si el tema del género se integra totalmente. Por otro lado, los defensores del género deben aprender a no desatender las TIC, particularmente la política de las TIC, como un área técnica que no concierne a las mujeres, sobre todo a las mujeres comunes. Deben trabajar continuamente para incluir en la agenda de la política y las estrategias de las TIC los asuntos que les interesan. Es necesario continuar desarrollando y evolucionando un programa feminista en términos de comunicación, del mismo modo en que hablamos de un programa social de comunicación basada en el derecho a comunicar de mujeres y hombres. Esta programa debe estar arraigado en la continua lucha del movimiento feminista y los movimientos sociales más amplios de forma tal que refleje de manera exacta las diversas realidades de las mujeres. Accesibilidad Catherine Roy “La accesibilidad es... una noción escurridiza... Uno de esos términos que todo el mundo utiliza hasta el momento en que uno se encuentra frente al problema de definirlo y evaluarlo” [1] Esta frase de Gould ha sido citada muchas veces porque resume muy bien la complejidad de este concepto. La accesibilidad es una noción relativa y contextual y la definición apropiada depende mucho del alcance y del contexto del cuestionamiento. Según Scott, este concepto, hasta se diría esta percepción, es algo que cada uno de nosotros vive, evalúa y juzga de manera diferente. [2] Del acceso universal a la accesibilidad de las personas discapacitadas: una problemática continua El término de accesibilidad, así como el de “acceso”, con el que se confunde a menudo, sea hoy una de esas palabras - valija que son utilizadas indiferentemente en diversos contextos y que sirven a menudo para disfrazar ciertas realidades, en lugar de aclararlas. Así pues, hablar de acceso o accesibilidad a la educación, la salud o la información como tienden a hacerlo cada vez más las formulaciones “políticamente correctas” de los convenios internacionales, es un modo de relegar los derechos fundamentales (a la educación, salud, información, etc.) a un lugar secundario y de poner énfasis solamente sobre su distribución y su práctica. Para las personas discapacitadas, sin embargo, la accesibilidad siempre ha representado una cuestión importante. Son testimonio de ello las luchas emprendidas por los representantes de ese ámbito desde hace más de medio siglo. La era digital y el ritmo de los desarrollos tecnológicos han aportado también su parte de desafíos en tanto que han abierto nuevas oportunidades para esta población. Es importante reconocer la gran contribución de esta comunidad al desarrollo de la noción de accesibilidad. Esa perspectiva y la problemática de la inclusión plena e integral de las personas discapacitadas en la sociedad de los saberes compartidos constituyen el hilo conductor de este artículo. La accesibilidad, una condición de acceso universal para todos De entrada, para comprender bien lo que está en juego en la accesibilidad, conviene definir lo que se entiende por “acceso universal”. En el campo de las tecnologías de la información, el acceso universal se refiere a nociones de interoperabilidad, de compatibilidad, de equipamiento, de infraestructuras...y de accesibilidad. El acceso universal descansa pues sobre la posibilidad de alcanzar ciertas condiciones. El World Wide Web Consortium (W3C) define la noción de acceso universal como la posibilidad para todos los individuos de acceder a los recursos en la Web, cualquiera sea su material o software, su infraestructura de red, su lengua materna, su cultura, su localización geográfica, o sus aptitudes físicas o mentales. [3] Entre las diversas condiciones de acceso universal, la accesibilidad es probablemente la que más se presta a confusión, ya que cada uno hace la promoción según los intereses y las necesidades de su comunidad. Así, para algunos ámbitos, la accesibilidad se refiere a la conectividad, para otros a los medios económicos, a la infraestructura, a los medios cognitivos y a la educación, a la disponibilidad de las informaciones o hasta al grado “de posibilidad de utilización” de los recursos para una persona que tiene una deficiencia. Si bien en el origen la accesibilidad se refería tradicionalmente a la facilidad con la cual se accede o se interactúa con el entorno físico, el advenimiento de la sociedad de la información vio evolucionar el concepto de accesibilidad a fin de tener en cuenta las nuevas realidades. Según Kwan, la naturaleza del acceso a las oportunidades es radicalmente diferente del mundo físico, porque en el ciberespacio la interacción entre los individuos depende más bien de la disponibilidad de los recursos de comunicación que del tiempo y de los costos necesarios para superar la separación física. [4] En el centro de los numerosos cambios en curso, se encuentra la disociación creciente entre el lugar y la función. Las actividades están basadas más bien sobre la persona que sobre la localización: la accesibilidad en el ciberespacio es una cuestión no territorializada. Además, la noción “de accesibilidad a la información” propuesta por Dodge descansa sobre el acceso a los recursos pertinentes y esto, en el momento oportuno. Esta preocupación viene de la idea de que Internet puede dar acceso a una vasta colección de recursos de información pero, en razón justamente de este exceso de información, no da necesariamente acceso a informaciones útiles, corrientes, confiables y abordables en el momento oportuno. [5] Algunos llevan el debate más lejos, afirmando que hay que agregar a la definición de este concepto las dimensiones de información, sociales y culturales. En efecto, el abordaje tradicional de la accesibilidad no reconoce que los individuos forman parte de redes sociales a través de las cuales la información es intercambiada y que estas redes dan forma a normas y valores que, en sí mismos, condicionan en gran medida, la accesibilidad. [6] Recientemente ha sido posible observar el impacto de ciertas tecnologías emergentes sobre la accesibilidad, tales como la Wi-Fi o la Web semántica. En efecto, la Wi-Fi da actualmente la posibilidad de conectarse en esta vasta red que es la Web gracias a la tecnología sin hilos y es considerada como una importante solución para responder a las necesidades de conectividad de algunos medios que no tienen las infraestructuras necesarias (tales como las zonas rurales o los países en desarrollo o en transición). En lo que respecta a la Web semántica, aunque esta tecnología aún no se encuentre suficientemente desarrollada y extendida como para medir todas sus consecuencias, ella apunta a mejorar la accesibilidad a la información, permitiendo responder, entre otras cosas, a las preocupaciones en materia de acceso a informaciones pertinentes y confiables. La accesibilidad, una condición de acceso esencial para personas discapacitadas Las transformaciones provocadas por el desarrollo de las tecnologías de la información y las comunicaciones (TIC) también han tenido repercusiones en la comunidad de las personas discapacitadas. Tradicionalmente, para una persona discapacitada, la accesibilidad significa que un lugar está acondicionado a fin de que ella pueda penetrar y circular en él sin obstáculos, que las instalaciones, los equipos y los medios de comunicación están concebidos para permitir su uso, con o sin adaptación, por una persona que tiene limitaciones motrices, sensoriales o cognitivas [7]. Esta accesibilidad esta basada sobre el desarrollo y la adopción de normas y su eficacia depende igualmente del momento de implementación (i.e. cuanto mas previamente la accesibilidad sea tomada en consideración en la planificación - de la construcción de un edificio, de un sitio web - mejor será). Esta necesidad de adaptación se transpone igualmente a un contexto tecnológico. Varias definiciones han sido propuestas en lo que concierne a la accesibilidad a las tecnologías para las personas discapacitadas. Para la ONU, se trata de las aplicaciones flexibles capaces de adaptarse a cada preferencia y necesidad del utilizador [8]. Para el programa Web Accessibility Initiative (WAI) del W3C, se trata de contenido accesible cuando puede ser utilizado por una persona que tiene una discapacidad [9]. Según Thatcher et al., cuando se habla de la accesibilidad de sitios Web, se habla de tener acceso y de poder utilizar el contenido Web independientemente de la interface o el modo de conexión utilizado [10]. Esencialmente, en el campo de la deficiencia, la accesibilidad a las TIC significa que esas tecnologías (sitios web, software, equipamientos informáticos, telefonía, quioscos de información y ventanillas de servicios automatizados, etc.) son utilizables por las personas discapacitadas, sin importar sus incapacidades o sus medios para paliarlas [11]. Las tecnologías siempre han jugado un papel importante para favorecer el desarrollo de la autonomía de las personas discapacitadas: ayuda a la comunicación o a la movilidad, ayuda informática, domótica o, más recientemente, innovaciones que permiten orientar sus desplazamientos con la tecnología GPS... Un vasto campo de pericia a favor del acceso de las personas discapacitadas a estas tecnologías se ha desplegado progresivamente alrededor de dos ejes: el desarrollo de soluciones tecnológicas, por una parte, la información, la sensibilización y el lobying político, por la otra. Las cuestiones que rodean la accesibilidad de las tecnologías y de los contenidos para las personas discapacitadas o de movilidad reducida son cada vez más tomadas en cuenta en ciertas sociedades, habiendo varios países adoptado en los últimos quince años leyes y adherido a normas a fin de que las personas discapacitadas puedan jugar en plenitud su rol de ciberciudadanos. Después de que los Estados Unidos, Australia y el Reino Unido adoptaran legislaciones, hace ya algunos años, Francia acaba de adoptar una ley que contiene obligaciones en materia de accesibilidad a los sitios web públicos. Otros países como el Japón, Canadá, Nueva Zelanda e Italia también han hecho esfuerzos en ese sentido. Una lista de las leyes y políticas vigentes en el mundo puede ser consultada en el sitio del W3C. [12] No obstante, aun en los países más sensibles a estas cuestiones, quedan todavía algunas barreras que pasar y, en materia de la sociedad de la información, algunos aspectos esenciales no son generalmente tomados en cuenta de modo suficiente. En efecto, el alcance de la accesibilidad está limitado, en la mayoría de los casos, a la infraestructura tecnológica, mientras que otras condiciones son esenciales para garantizar el acceso a esta sociedad emergente. Así, las personas discapacitadas se encuentran entre las más pobres, las menos instruidas y las más marginalizadas de todas las sociedades. Ellas constituyen más de 600 millones de personas a escala planetaria, entre las cuales el 80% vive en países en vías de desarrollo o en transición. Tienen pocas oportunidades de participar en el desarrollo de sus comunidades y de ejercer una influencia sobre su suerte. Mientras que su efectiva integración en la sociedad actual tarda en concretarse, las discusiones sobre su integración en la sociedad en construcción son de gran magnitud y no pueden limitarse solamente a consideraciones tecnológicas. Las tres condiciones del desarrollo de la accesibilidad Como lo hemos visto anteriormente, la demanda de tomar en cuenta las dimensiones sociales y culturales en el desarrollo del acceso universal no es nueva. En este espíritu, los trabajos alrededor de la Cumbre Mundial de la Sociedad de la Información (SMSI) trataron de considerar necesidades particulares, tales como la educación (en una óptica de refuerzo de las capacidades) y el acceso a recursos comunitarios [13]. La ONU ha hecho trabajos interesantes en ese sentido por vía de su programa de acción mundial. Plantea la noción “de accesibilidad al entorno”, que incluye la planificación y la introducción de medidas con el fin de promover la integración así como la plena y efectiva participación de todos sobre una base igualitaria. [14] En el contexto que nos preocupa, debemos ver en consecuencia la accesibilidad para las a la sociedad de la información. Esta accesibilidad debe concretarse por medio de una acción inclusiva, participativa y normalizada: Inclusiva en una óptica de tomar en cuenta necesidades de todos en la concepción, implantación y evaluación de estrategias, políticas, programas y proyectos; Participativa en una óptica de participación de todos en la toma de decisiones que tienen un impacto sobre la vida de los individuos y de las comunidades; Normalizada en una óptica de desarrollo y de adopción de conceptos, procedimientos y estándares que tomen en cuenta las diferencias sociales, económicas, culturales, lingüísticas, físicas y geográficas de todos. Inteligencia cooperativa Felix Stalder El término “inteligencia de código abierto” tiene dos significados. En el contexto de las operaciones tradicionales de inteligencia (servicios secretos gubernamentales y privados) se refiere a la información que puede extraerse de fuentes públicas, incluyendo los periódicos, los sitios Web y los libros. Esto contrasta con la información recogida a través del espionaje, la vigilancia o los informantes, que no está disponible fuera de la organización de inteligencia. Un código abierto, en este contexto, es cualquier recurso de información al que puede acceder el público. Recientemente, el término también se ha empleado para hacer referencia a una práctica de creación colaborativa del conocimiento inspirada en el movimiento Free and Open Source Software (software libre y de código abierto, FOSS). El término fue utilizado por primera vez con este sentido en un artículo publicado en el diario en línea First Monday, en el año 2002 [1]. Es esta segunda acepción que utilizaremos en este artículo. Definición y contexto Durante las dos últimas décadas, el movimiento de software libre y de código abierto ha establecido un proceso colaborativo de creación capaz de producir información de alta calidad (por ejemplo, el sistema operativo Linux). No obstante, este proceso está más vinculado a la creación del conocimiento científico que a la producción de bienes comerciales. Descansa en algunos principios generales: acceso sin restricción a la información creada por la comunidad; evaluación por pares de las contribuciones realizadas por los miembros de la comunidad; dirección basada en la autoridad y no en la sanción, y niveles flexibles de participación y responsabilidad. En la práctica, esto significa lo siguiente: todos tienen acceso a toda la información creada como parte del proyecto colaborativo. Nadie puede eliminar información del fondo común. Las licencias Copyleft, como la Licencia Pública General GNU, proporcionan protecciones legales [2]. Los miembros de la comunidad deciden, de manera colaborativa, cuáles contribuciones son lo suficientemente válidas como para ser introducidas en el fondo común de conocimientos y cuáles no serán aceptadas. Este proceso de evaluación por pares es importante para asegurar un elevado nivel de calidad del recurso común. Los proyectos de código abierto no son caóticos. La mayoría de ellos son dirigidos por una o más personas que se han ganado la confianza de la comunidad durante el ciclo de vida del proyecto. Por lo general, estas personas son los árbitros supremos en caso de conflicto. Su dirección se basa en la autoridad que les ha atribuido la comunidad y no en su habilidad de aplicar sanciones contra cualquiera. Todo el proceso se basa en contribuciones voluntarias; por consiguiente, la tarea más importante del líder del proyecto es mantener a la comunidad feliz y motivada. Por último, los niveles flexibles de participación permiten que prácticamente cualquiera pueda participar en un proyecto, ya sea con pequeñas contribuciones, de una sola vez, o con una participación más grande, a largo plazo, en dependencia del interés, las calificaciones y los recursos. Estos principios, aun cuando se emplearon por primera vez en el desarrollo de software a través de Internet, en estos momentos se están aplicando en la creación de otras formas de conocimiento, una práctica llamada “inteligencia de código abierto” o “inteligencia cooperativa”. Historia y práctica La creación colaborativa del conocimiento en Internet es tan vieja como la propia Internet. Durante mucho tiempo, la distribución libre de información ha sido un aspecto central de la cultura de Internet (“la información quiere ser libre” era un eslogan popular). Los ambientes colaborativos simples, como las listas de correo electrónico, existen desde principios de los años 70, y los sistemas ligeramente más avanzados tales como Usenet y los tableros electrónicos de anuncios (BBS), desde principios de los 80. Sin embargo, con la comercialización de Internet en los años noventa y el éxito del software libre y de código abierto, se reconoce que la creación colaborativa del conocimiento es una práctica particular e innovadora cuyo éxito exige un marco social, técnico y legal diferente. Desde el punto de vista social, requiere que los participantes reconozcan los méritos de la colaboración y tengan la voluntad no solo de compartir sus propios conocimientos, sino también de aceptar que esas otras personas puedan transformar ese conocimiento de maneras inesperadas. En lugar de una separación clara entre el autor y el público, entre el experto y el novato, tenemos una situación en la cual todos tienen derecho a leer y escribir. Desde el punto de vista técnico, las plataformas especializadas apoyan este proceso para facilitar que las personas desarrollen las contribuciones de otras personas y asegurar la transparencia de la forma en que un recurso ha sido transformado. Desde el punto de vista legal, la concepción tradicional de copyright, que concede al autor un control casi ilimitado sobre el uso de sus obras, está siendo reemplazada por copyleft, que se basa en los derechos casi ilimitados de distribuir y adaptar las obras. Quizás, el ejemplo más prominente de proyecto de inteligencia cooperativa es la enciclopedia libre en línea Wikipedia [3]. Técnicamente, se basa en una plataforma Wiki, que permite que todo el que posea un navegador normal de Internet pueda editar la página. El software conserva una historia de las modificaciones de una página, lo que facilita ver cómo ha evolucionado el contenido con el tiempo y, si fuera necesario, eliminar las modificaciones no calificadas o el vandalismo. Fundada a principios del año 2001, ha aumentado a más de 450 000 artículos para finales del año 2004; todos ellos escritos por voluntarios, sin una edición o coordinación centralizada. Se publica con una licencia de documentación libre GNU. Muchos de estos artículos pueden alcanzar el nivel de calidad encontrado en las enciclopedias comerciales, aunque otros aún están por debajo de la norma. Como demostrara un reciente estudio realizado por la IBM [4], el proyecto - a pesar de su apertura - es sorprendentemente estable y resistente al uso indebido. Hasta el momento, su historia justifica el optimismo de que los artículos mejorarán con el tiempo, a medida que personas conocedoras rellenen las lagunas que todavía existen y la edición colaborativa elimine los errores aún presentes. En una ocasión, Eric S. Raymond, destacado analista del movimiento de software libre y de código abierto, expresó la asunción subyacente de la siguiente manera: “Con suficientes ojos, todos los errores saldrán a la superficie.” [5] Con esto quiso decir que personas con diferentes habilidades y dominios del conocimiento encontrarán diferentes errores, que les resulten fáciles de señalar y corregir. Lo que para una persona resulta un problema difícil, podría ser sencillo para otra. Si hay suficientes personas que examinen la página, todos los errores serán encontrados y eliminados. Como ocurre con todos los proyectos colaborativos, Wikipedia es un proyecto vivo, en constante cambio, y no un producto fijo cuyas actualizaciones son puestas a disposición del público cada cierto tiempo. Otro ejemplo prominente incluye la red Indymedia de noticias alternativas dirigidas a la comunidad [5], el sitio de edición colaborativa kuro5hin [6], y, en menor grado, las bases de datos creadas por los usuarios, como la CDDB, que contiene información sobre archivos de sonido [7]. Potencial Parece que la inteligencia cooperativa funciona mejor para dominios en los que el conocimiento es distribuido de manera amplia pero irregular. Existen decenas de miles de personas que poseen algún conocimiento especializado para mejorar Wikipedia, pero todas reconocen que dependen fundamentalmente de las demás si desean que el recurso sea exhaustivo. Nadie podría escribirlo solo. En las áreas en que no existe una autoridad establecida, sea porque el área es demasiado dinámica, sea porque el conocimiento es demasiado específico de una comunidad o un proyecto, a menudo no existe otra vía que la creación del conocimiento de forma colaborativa. Los ejemplos de inteligencia cooperativa pueden ayudar a organizar este proceso de manera eficiente. Aspectos fundamentales El problema central de la inteligencia cooperativa es cómo validar el conocimiento producido. En el caso del software libre y de código abierto, esto es relativamente simple, porque siempre se puede ejecutar el código y observar qué sucede. Si la nueva versión es más rápida que la antigua o puede hacer cosas nuevas, entonces ha sido mejorada. Si falla, entonces es necesario mejorarla. En el caso de una enciclopedia (o un periódico) tradicional, cada artículo es revisado antes de su publicación por un equipo de editores especializados, apoyado por un grupo de verificadores de datos, archiveros, etcétera. Sabemos (o al menos suponemos) que toda la información que vemos ha pasado por este proceso. Por tanto, los especialistas validan por nosotros la información y confiamos en que el editor ha empleado a las personas correctas. Por otro lado, la mayoría de los proyectos de inteligencia cooperativa permite que todos contribuyan y la información esté accesible de inmediato. En otros términos, por lo general no sabemos si algo no es más que un primer borrador o la sabiduría colectiva de una comunidad. Además, un proceso editorial abierto puede orientar el contenido hacia una sabiduría convencional, o sea la opinión aceptada por la mayoría que, en cualquier comunidad, puede estar equivocada en ciertos aspectos [8]. Por consiguiente, un gran número de “ojos” podría aumentar, en lugar de eliminar, un error. No existe un método sencillo, como ejecutar el código, mediante el cual se pueda evaluar la calidad del trabajo colaborativo. En la actualidad, existe un gran debate sobre cómo tratar estos proyectos. Algunos proponen reintroducir una distinción entre los expertos y los novatos [9], mientras otros, como la plataforma de discusión Slashdot [10], han desarrollado un esquema moderador que clasifica las contribuciones y luego permite filtrarlas sobre la base de esa clasificación. El problema no es sencillo, y no existe una solución aplicable a todos los casos. Más bien, es probable que diferentes contextos desarrollen soluciones diferentes, en dependencia de sus necesidades y capacidades particulares. Con el surgimiento de los blogs (weblogs, software que permite hacer publicaciones personales en forma de diario) se han acuñado términos como “periodismo de código abierto”, “periodismo ciudadano” o “periodismo punto a punto” para describir procesos colaborativos similares en el área de la creación y discusión de informes noticiosos. Su abogado más prominente es el periodista de blogs Dan Gillmor, quien recientemente ha publicado un libro sobre este fenómeno, llamado We the Media [11]. Expresión ciudadana Michel Briand La “expresión ciudadana” es, en primer lugar, una forma de tomar la palabra, una expresión de carácter público relativa a la vida en sociedad. Se diferencia en esto de la expresión personal, y en carácter de tal exige una mayor atención en la organización de la libertad, en la extensión de los “derechos de la comunicación”. Diarios, boletines, afiches, radios, discursos, teatro, poemas, música, televisión, cine, videos: las formas de expresión y los medios son tan variados como los medios de comunicación. Lo mismo es válido para los tipos de expresiones: individual, asociativa, artística, partidaria, foro, petición, voto...que reflejan la diversidad de las intervenciones en el seno de la sociedad. La palabra “ciudadano” está formada a partir de civitas, que designa la ciudad, formada a su vez sobre “civis” que significa ciudadano, que habita en la ciudad. El término “ciudadano” integrado en la Marsellesa, himno nacional francés, y empleado durante la Revolución de 1789, es probablemente más fuerte y está más cargado de historia en Francia que en otros países donde es utilizado en un contexto únicamente descriptivo y funcional. La ciudadanía se expresa históricamente sobre un territorio, geográfico o simbólico (“ciudadano del mundo”). Se desarrolla en sociedades abiertas donde puede constituirse un espacio público. Herramienta esencial de la extensión de la democracia, la expresión ciudadana es la expresión individual o colectiva que habla de las relaciones con los demás, de la vida en la ciudad y en sociedad. Expresión ciudadana y gobernabilidad Para tener sentido en la sociedad, la expresión libre, no censurada, creadora de mundos nuevos debe poder actuar sobre lo real. Así pues, la expresión se confronta con un límite: el de la decisión y la acción. Los pueblos que han aprendido a leer y escribir y obtenido poco a poco la extensión de los derechos democráticos, reivindican hoy en día un derecho de control sobre la manera en que son gobernados y una justificación de las decisiones tomadas. En esta interacción con la decisión es donde la expresión ciudadana se confronta con la “gobernabilidad”. ¿Cómo asegurar la continuidad entre “expresión ciudadana” y “decisión ciudadana”? Las fuentes de información necesarias a la formación de una opinión, condición previa a la expresión ¿son accesibles? ¿Cómo asegurar a la expresión una calidad argumentativa que le dé fuerza y libertad? ¿Cómo integra el político tomador de decisiones lo que entiende incorporar de la expresión ciudadana? ¿La decisión elegida tomará en cuenta lo que ha sido expresado? Los usos de Internet para la expresión ciudadana ya tienen cierto éxito, especialmente al ser capaces de relacionar las cuestiones locales con las cuestiones globales: ordenamiento de la ciudad, presupuesto participativo, exclusiones sociales, desigualdades Norte - Sur, posibilidad de patentar lo viviente, Organismos Genéticamente Modificados, derechos y lugar de las mujeres... tantas temáticas que han tomado su lugar en el seno de las sociedades abiertas únicamente a través del debate y de la expresión ciudadana. Una expresión que crea identidad Al lado de una función democrática, por la confrontación de los argumentos, la expresión pública, la expresión de un público, llena también una función identitaria: la de afirmarse ante los demás. Para la expresión de públicos alejados, la identidad es a menudo un resorte de esta expresión pública. Ella es el resultado de una brecha entre la imagen proyectada por el grupo y la imagen que el grupo tiene de sí mismo. Estigmatizado, un grupo busca apropiarse de este estigma e invertirlo, o por lo menos hacer de él un recurso identitario que pueda ser movilizado. La expresión ciudadana nos remite aquí a un reconocimiento de las personas (individual y colectivo). Las capacidades de Internet para proyectar esta reivindicación de identidad también la convierten en una tecnología que construye un vínculo social. Jalón de una democracia participativa Desde el punto de vista de los habitantes, este pedido de debate público argumentado, de reconocimiento de las personas, pone los jalones de una democracia participativa que prolonga la democracia representativa. Prestar atención a la expresión es también reconocer la importancia de los puntos de vista de los ciudadanos. Según los modos de participación elegidos, las formas de expresión varían: La información es una expresión descendente que no espera retorno. La consulta solicita una opinión que será contabilizada (voto) o sintetizada (encuesta de utilidad pública). La concertación implica un diálogo que pueda influir sobre la decisión. La co-construcción apela a la inteligencia colectiva, a la pericia de uso de los ciudadanos para coproducir al lado de los expertos y de los electos depositarios del poder. Esta última forma, bastante rara actualmente, es ciertamente la más completa, pero también la más exigente y compleja de la democracia participativa. La expresión ciudadana contestataria también juega un rol de preservación del conjunto del sistema democrático, osando plantear problemas a menudo ignorados o descuidados por los dirigentes. Acerca de la expresión ciudadana La expresión ciudadana es sinónima de cierta libertad, adquirida o reivindicada. Las sanciones y amenazas provocadas por palabras y escritos públicos atestiguan el carácter no democrático de una sociedad, como aún se constata comúnmente en numerosos países. Las tribunas de personalidades, de responsables asociativos, de opositores políticos a la mayoría o la expresión de organizaciones no gubernamentales, de redes militantes, de movimientos sociales, forman parte de una expresión ciudadana en la medida en que son expresiones de personas, actores ciudadanos. Pero ellas solo constituyen una pequeña parte. Tenemos que interrogarnos sobre la función simbólica de la expresión: ¿quién se siente legitimado para hablar? ¿Sobre qué base se construye esta legitimidad? Numerosas expresiones utilizan un “nosotros” indeterminado que se presta a confusión. No es suficiente que algunos “ciudadanos” que tienen acceso a los medios de comunicación, a los lugares de debate, se autoproclamen expresión ciudadana para que las condiciones de una expresión ciudadana de calidad estén reunidas. Si bien la libertad de expresión es una condición de base de la expresión ciudadana, está lejos de ser suficiente. Raras son las personas que toman la palabra o la pluma. Al mirar alrededor, cada uno y cada una constatará que la expresión pública no es fácil para la mayoría de las personas. Colocar escritos en la plaza pública no es un acto anodino. Presentar para ver y debatir ya es un acto político, constitutivo de un proyecto (de vida o de sociedad) y constitutivo de trayectorias sociales. De la palabra pública a la expresión ciudadana Así pues, la expresión ciudadana no cae de su peso, ella implica también un recorrido, un acompañamiento, una mirada crítica, un reconocimiento individual y colectivo de las personas. El camino es largo para que la expresión ciudadana sea un derecho efectivo como el voto. Un camino que pasa primero por el aprendizaje, la formación de la expresión y por una mutación cultural: la interiorización por la mayor cantidad de personas de que esta expresión es, no solamente un derecho, sino también un resorte de transformación social. Raras son actualmente las políticas públicas que favorecen y acompañan esta toma de la palabra. Es por eso que la expresión ciudadana no es solamente tomar la palabra, una expresión de carácter público relativa a la vida en sociedad, sino también el producto de un acompañamiento, de un aprendizaje. Es el conjunto de un proceso que permite el acceso a la toma de la palabra de los habitantes de un territorio en lo que se refiere a la vida en sociedad, en una acción participativa. Esta idea de proceso evoca una dinámica en construcción, una organización colectiva, un reconocimiento de las identidades colectivas e individuales que deben plasmarse por medio de la observación, la comprensión, el análisis y la aproximación de situaciones. ¿En qué condiciones sociales, qué contexto político se desarrolla la expresión ciudadana?¿Cuáles son sus relaciones con las acciones participativas realizadas? En el seno de sociedades de la información Hoy en día la expresión ciudadana nos interpela como habitante de la ciudad y ciudadano del mundo, explorando nuevas modalidades para el vivir en común. Mientras las fronteras de lo local y de lo global se mezclan cada vez más estrechamente, las mutaciones ligadas a la era de la información repercuten sobre la expresión y la participación ciudadana. Lo digital introduce varias rupturas: La codificación de la información hace la información reproducible: lo que recibo también está disponible para los demás, lo que escribo puede circular; La convergencia digital agrega a la corriente de los progresos tecnológicos la posibilidad de intercambios digitales de datos, textos, fotos, sonidos e imágenes animadas; Las formas de la expresión ciudadana se multiplican, permitiendo a cada uno tomar la “palabra” en función de sus mejores aptitudes. Las redes electrónicas conectan a las personas más allá de las fronteras por múltiples objetos comunicantes ligados en red por las ondas, las redes por cable o telefónicas. La censura local se torna imposible, la información toca a las diásporas, la ciudadanía local se vive bajo la mirada del mundo. Las turbulencias de lo digital Hasta hace poco, la expresión de un individuo estaba limitada por el alcance de lo oral o de lo escrito. El advenimiento de los medios masivos de comunicación ha multiplicado las capacidades para recibir la información. Estamos lejos de encontrar tal extensión para que un ciudadano ordinario pueda acceder a los diarios, las radios o la televisión a fin de hacerse escuchar. Las redes electrónicas y las nuevas culturas digitales abren a contrario posibilidades inéditas para el habitante “conectado” de la ciudad de expresarse y de interactuar con la esfera social, pública y política. Si bien los laboratorios de informática o de telecomunicaciones están en el corazón de la expansión incesante de las innovaciones tecnológicas, los intercambios entre personas son un elemento esencial del desarrollo de los usos. Las aplicaciones mayores de la era digital, tales como el correo electrónico, la web, el chat, los foros, los blogs fueron inventados y plebiscitados en el seno de las comunidades de usuarios. La difusión de las herramientas digitales en la sociedad está acompañada por la emergencia de nuevas prácticas de comunicación. Los millones de sitios de la web se vuelven una fuente de información concurrente de los medios masivos de comunicación. En un momento de debate político, un blog, obra de una sola persona, puede erigirse al mismo nivel de lectura que un diario o una radio, con el agregado de la interactividad. Sobre un territorio local, un webzine se afirma en contrapunto a la expresión municipal [1]. Sitios colectivos similares a Indymedia, la red de información contestataria más conocida, se sitúan como alternativa de testimonio a los informes de manifestaciones o de eventos. Esta emergencia, al lado de los medios difundidos “uno hacia todos” (diarios, radios, televisión), de los medios distribuidos donde es la expresión de personas o de colectivos la que predomina, interpela hoy en día a las formas de gobernabilidad. La difusión rápida de las informaciones a través del mundo permite la organización de movimientos de opinión en forma de redes inéditas. El acceso a la información contradictoria abre el debate e impone argumentar a los tomadores de decisión. La confrontación de las ideas acelera la elaboración colectiva de propuestas que se plantean como alternativas. Cuando el éxito de un medio distribuido viene de la calidad de sus contenidos y de su animación, eso no puede más que interpelar a los tomadores de decisión habituados a una difusión jerárquica en nombre de su función, hacia aquellas y aquellos que les han dado un mandato directa o indirectamente. La participación es una cultura emergente que tiene todavía poco lugar en sociedades organizadas mayoritariamente alrededor de la representación y de los mandatos acordados u otorgados. Es también necesario interrogarse sobre los valores de uso de las mediaciones por ordenadores. Las articulaciones entre “actuar localmente y pensar globalmente”, pertinentes en el marco de los Nuevos Movimientos Sociales, solamente funcionan para una franja limitada de la población. En efecto, las expresiones orales, por escrito, por gestos no requieren las mismas habilidades ni los mismos códigos. Conversar en un chat, enviar un correo electrónico a una lista de difusión, participar en un foro, abrir un blog, escribir en un sitio asociativo, tomar la palabra en un sitio público, fabricar una radio o un video: no todo el mundo dispone de las mismas herramientas culturales, intelectuales, cognitivas (sin hablar de las herramientas técnicas) para apropiarse de las nuevas formas de expresión. Extender estas prácticas hacia todos los ciudadanos y todas las ciudadanas se vuelve una tarea que debe concernir a todos los actores de la expresión ciudadana. La expresión ciudadana plantea interrogantes a los medios masivos de comunicación tradicionales El éxito de los medios distribuidos demuestra también una desconfianza con respecto a los tomadores públicos de decisiones y a los medios masivos. La difusión de las mismas imágenes en todos los canales de televisión, los textos intercambiables de la prensa cotidiana alertan a los ciudadanos activos sobre la concentración de los medios masivos. ¡Sin embargo, se constata que los más grandes éxitos del P2P son los mismos que los del Top 50! Los medios distribuidos, reflejo de nuestras prácticas sociales emergentes, pueden también favorecer la repetición de un modelo “que funciona” en lugar de inventar otra manera de decir. A este movimiento emergente nos proponemos interrogar. El aporte de las redes digitales: nuevos posibles y sus límites Para que la expresión exista, le es necesario disponer de medios para difundirla. Aquí es donde el aporte de las herramientas digitales elimina ciertas barreras de acceso a los medios masivos de comunicación casi infranqueables en otras épocas para un ciudadano o una ciudadana ordinarios. Se vuelve posible, a partir de un ordenador conectado, publicar una revista de información comunal, realizar un sitio especializado sobre un tema de sociedad en debate, juntar rápidamente informaciones de los cuatro rincones de un país o del planeta. El testimonio que proviene directamente de los actores se transforma en un medio esencial de promover una relación de los acontecimientos que toma en cuenta todos los puntos de vista y todas las situaciones. Esto se ha podido ver en ocasión de las últimas catástrofes naturales que sacudieron al globo. Pero entre los millones de blogs, muy pocos se refieren a la expresión ciudadana, la inmensa mayoría apunta en primer lugar a la expresión personal o en el seno de pequeños grupos. Y como en el caso de los diarios de barrio, las publicaciones asociativas, las radios libres, debemos constatar que la escritura colectiva que hace al debate, que reúne a la gente sobre un territorio o aporta sentido, concierne actualmente a muy poca gente. Los sitios de publicación sobrepasan muy raramente el centenar de redactores, la inmensa mayoría de los lectores no franquea espontáneamente el umbral hacia la redacción o la escritura de comentarios. Conservar una perspectiva abierta La expresión ciudadana es una actividad en devenir, un proyecto. Lo que hoy importa, es a la vez apoyarse sobre las experiencias que van hacia delante y también permitir una transferencia del know - how que allí se desarrolla hacia las poblaciones que se expresan menos. Porque las herramientas de escritura en colaboración o los software libres nos muestran que las ganas de participar en el bien común puede reunir a millares de personas alrededor de un proyecto cooperativo. Los medios distribuidos hacen posible la puesta en movimiento de vastas comunidades que se implican para coproducir contenidos habitualmente difundidos por las estructuras públicas. Ya se trate de herramientas de oficina para comunicar (Open Office, Firefox), enciclopedias (Wikipedia), mapas, atlas (Open Geodata), revistas científicas (Llamado de Budapest), conocimientos accesibles (los sitios de formación y de autoformación en Internet), contenidos pedagógicos (Open Courseware), las iniciativas que provienen directamente de los individuos y de los grupos se multiplican fuera de las instituciones que tienen, sin embargo, esa misión. Todas estas acciones que nutren un patrimonio común del saber, no se viven forzosamente como políticas (entre los contribuidores de wikipedia, son numerosos los que lo hacen como juego, por pasión), constituyen igualmente una forma de expresión ciudadana. Del mismo modo, los artistas que utilizan los multimedia participan en ese movimiento. La representación digital por el texto, la imagen o el sonido, el recurso a la simulación, a la 3D, al sampling, a la mezcla, la multiplicación de las obras colectivas, abiertas a las interacciones, multiplican los campos de investigación de los artistas. También ciertos colectivos artísticos ocupan ese campo de expresión dándole una dimensión política. Ante esta profusión de experiencias, de voluntades, ante las dificultades encontradas para ampliar el número de participantes, queda por hacer todo un trabajo para interrogar a las múltiples formas de la expresión ciudadana y las condiciones de su expansión. Preguntas abiertas Las tecnologías de la información y de la comunicación multiplican las tomas de palabra posibles para aquellas y aquellos que poseen sus claves de acceso y de uso. Para calificar la expresión ciudadana, es necesario preguntar: ¿Quién toma la palabra? (cantidad, lugar en la sociedad) ¿En nombre de quién? ¿Por qué? (¿en qué se sienten legitimados para hacerlo?) ¿Cómo? (¿por qué medios de comunicación, palabra individual o colectiva?) ¿Cuál es el dispositivo que permite esta toma de palabra? (técnico, cognitivo) ¿Qué acompañamiento lo hace posible? (iniciación, mediación, formación) ¿Se toma en cuenta esta expresión en la gobernabilidad? (qué enlaces, qué incorporación a los procesos democráticos clásicos) ¿Se toma en cuenta a las personas naturalmente alejadas de la toma de la palabra en consideración a la equidad? ¿Qué diferencia entre “expresión ciudadana” y “opinión pública”? ¿Es una de ellas fruto de la otra? Mientras que los debates tradicionales sobre la “libertad de expresión” y el “derecho a la información” se refieren a la organización social de herramientas de difusión de la información (libertad de la prensa), sobre su pluralismo (control económico o político de los medios) y sobre la información independiente, la irrupción de Internet viene a alterar este paisaje. Gracias los medios distribuidos de Internet, la expresión ciudadana cuestiona las formas de organización de la democracia, extendiéndola hacia una mayor participación. ¿Cómo puede cada habitante utilizar esta red para comunicar públicamente? No solamente intercambiar entre pares, entre amigos o en el seno de redes asociativas, sino ¿cómo la escritura multimedia sobre la escena pública de Internet viene a alterar las relaciones que los ciudadanos mantienen con la información y con aquellos que los gobiernan? ¿Cómo hacer entender las necesidades de las poblaciones y hacer emerger las soluciones que reposan en la inteligencia colectiva? Las herramientas están disponibles (e-mail, sitios web, blogs, enciclopedias cooperativas, ficheros compartidos) pero un nuevo saber hacer, un “saber decir” debe ser inventado y transmitido a todos, especialmente a los sectores marginales. La innovación por el uso Dominique Cardon El usuario de las nuevas tecnologías de información y de comunicación (TIC) presenta características que lo diferencian de las figuras del lector, del oyente o del telespectador, asociadas a los diferentes medios masivos de comunicación. La posibilidad de comunicar, de producir y de intercambiar con las TIC invita a definir a aquellos que las utilizan subrayando la dimensión activa, simétrica y participativa de su implicación con las tecnologías. Así pues, la figura de usuario pareció particularmente bien adaptada al universo de las nuevas tecnologías en el sentido de que permite disociarse de la caracterización mercantil del consumidor o de la representación pasiva del receptor de los medios masivos. Al hablar de usuario antes que de utilizador, es también posible insistir sobre el hecho de que la relación de las personas con las herramientas técnicas no puede ser reducida a la aplicación de las funciones previstas por los que las concibieron, sino que la apropiación de las tecnologías es una actividad social, cultural, económica y política de pleno derecho. El uso de las tecnologías, en efecto, se inscribe profundamente en la vida social de las personas y es reductor considerar el impacto de las TIC como un simple asunto de costo, de funcionalidad o de simplicidad de las interfaces. Es la razón por la cual la cuestión de la apropiación por el uso juega un papel importante en el análisis de las transformaciones que las nuevas herramientas de comunicación aportan a nuestras sociedades. En este artículo, proponemos volver sobre la génesis de la noción de usuario e insistir sobre una característica esencial del uso de las nuevas tecnologías: la innovación nace tanto en las prácticas de los usuarios como en los laboratorios de los centros de investigación pública o industrial. En efecto, ciertas rupturas más significativas en los comportamientos de comunicación (el software libre, las herramientas cooperativas de publicación, el wifi, el P2P, los blogs, etc.) no fueron iniciadas “desde arriba”, por un plan de desarrollo industrial que acompañara la puesta a disposición de una nueva tecnología salida de los laboratorios de investigación, sino que han tomado forma “desde abajo”, en términos de un proceso cooperativo que reúne de manera voluntaria a redes de usuarios. Se definirá a las innovaciones por el uso (también llamadas “innovaciones ascendentes” [bottom-up innovations] o “innovaciones horizontales”) como innovaciones tecnológicas o de servicios que nacen de las prácticas de los usuarios y se difunden a través de las redes de intercambios entre usuarios. Estas innovaciones por el uso, que se desarrollan independientemente de los ciclos “verticales” de la innovación, se volvieron una característica esencial, aunque no exclusiva, del desarrollo de la sociedad de la información. Usos y usuarios de los medios y de las TIC La noción de “uso” apareció en la sociología de los medios con la corriente funcionalista de los “Uses and gratifications” en los trabajos americanos de los años 60 y 70 [1]. Los promotores de este abordaje buscaban tomar distancia con el paradigma entonces predominante que analizaba exclusivamente la acción de los medios masivos de comunicación en términos de efecto. Que la conclusión sea la existencia de “efectos fuertes” como la escuela de Frankfurt (Adorno, Horkheimer) o de “efectos limitados” (Lazarsfeld), las primeras tradiciones de estudios de las herramientas de la comunicación planteaban la misma pregunta: ¿Qué hacen los medios a la gente que está expuesta a ellos? La corriente de los “Uses and gratifications” buscó apartarse de este mediacentrismo transformando el sentido de la pregunta planteada por los fundadores de los estudios de comunicación. Ya no preguntan cómo los medios influyen sobre las personas, sino ¿qué hace la gente con los medios? Este cambio de paradigma va a abrir el espacio de investigación a otra concepción de la relación de los usuarios con las herramientas de comunicación. En una perspectiva funcionalista, los investigadores de la corriente de los “Uses and gratifications” consideran en consecuencia que los utilizadores no reciben mensajes pasivamente, sino que utilizan activamente los medios para retirar de ellos satisfacciones específicas que responden a necesidades sicológicas. Aunque esta escuela ha sido criticada porque reducía a menudo la atracción por las tecnologías a mecanismos de compensación sicológica, estos primeros trabajos abrieron el camino para un análisis del uso que se emancipa de un determinismo unilateral de la técnica sobre la sociedad. En Francia, la obra colectiva de Michel de Certeau, L’invention du quotidien (1980) [2], jugó un papel fundador en materia de estudio de los usos. Historiador y sicoanalista, Michel de Certeau reconoce de buenas a primeras la capacidad de los individuos para la autonomía y la libertad. Su abordaje consiste en detectar los mecanismos por los cuales los individuos se vuelven sujetos que manifiestan formas de autonomía en un conjunto muy amplio de prácticas de la vida cotidiana, el consumo, la lectura o la vivienda. Con sus descripciones finas de las “artes de usar” y de las “maneras de hacer” de los usuarios, Michel de Certeau muestra cómo las prácticas de los usuarios marcan una separación, una diferencia con el programa que la tecnocracia y las industrias culturales buscan imponerles. Las personas ordinarias, afirma, muestran capacidades creativas que los industriales no sospechan: mediante astucias, bricolaje o rodeos - que Michel de Certeau reunirá bajo el término de “caza furtiva” - pueden inventar una manera propia de caminar en los universos construidos por las industrias de la cultura o las tecnologías de comunicación. Accionando un juego sutil de tácticas (que les aseguran el control por el tiempo) que se oponen a las estrategias de las grandes tecnocracias (que tienen el control sobre el espacio), los usuarios manifiestan una forma de resistencia moral y política. Los trabajos de Michel de Certeau han influenciado fuertemente los estudios de usos en Francia o en la corriente británica de los cultural studies. Ellos permitieron ampliar la visión más allá de la relación individual de las personas con las interfaces tecnológicas. Introdujeron el tiempo y las dinámicas de aprendizaje como un factor clave de la apropiación y de la estabilización de los usos en hábitos o rutinas. Permitieron finalmente insistir sobre el carácter fundamentalmente imprevisible de los usuarios que no cesan de transformar y de desviar los servicios y las tecnologías que les son ofrecidos, como lo atestigua el éxito de los SMS que los industriales no habían previsto. En cuanto a la noción de apropiación, se remonta a las preocupaciones de los investigadores que formaron el núcleo constitutivo de los primeros estudios de uso de las TIC. Próximos a la corriente de inspiración marxista de la autonomía social, los promotores francocanadienses y franceses de la noción de apropiación en los años 70 y 80, deseaban desarrollar una sociopolítica de los usos que llamara la atención sobre la dimensión conflictiva de la apropiación de las tecnologías en el seno de las relaciones de producción y de reproducción de la economía capitalista. La noción de apropiación permite describir el proceso de interiorización progresiva de competencias técnicas y cognitivas obrantes entre los individuos y los grupos que manejan cotidianamente estas tecnologías. Serge Proulx considera que se requieren cuatro condiciones para la apropiación social de una tecnología: “a) El dominio técnico y cognitivo del artefacto; “b) la integración significativa del objeto técnico en la práctica cotidiana del usuario; “c) el uso repetido de esta tecnología que abre hacia posibilidades de creación (acciones que generan novedad en la práctica social); “d) finalmente, a un nivel propiamente más colectivo, la apropiación social supone que los usuarios estén adecuadamente representados en el establecimiento de políticas públicas y al mismo tiempo sean tenidos en cuenta en los procesos de innovación (producción industrial y distribución comercial”) [3]. Como lo atestigua esta reconstitución sucinta de la historia de la noción de uso en el campo de las TIC, lo que está en juego es un vuelco de la perspectiva que apunta a devolver a las personas un poder de actuar, adaptar y crear, frente a las tecnologías que pretenden prescribirles maneras de hacer y de actuar. El uso creador La historia de las recientes tecnologías exitosas muestra que los usuarios son también frecuentemente actores esenciales de la innovación. Es, en efecto, cada vez más difícil aislar un proceso de innovación que solo tendría lugar en los centros de investigación, de las dinámicas sociales que asocian muy estrechamente a usuarios, tecnologías, innovadores y militantes que forman un ambiente propicio para la innovación en el campo de las TIC. De hecho, estudiantes ingeniosos y apasionados de la música dieron origen a la concepción de los sistemas P2P que permitieron el uso masivo y popular de Internet de alta velocidad. Militantes asociativos americanos fueron a buscar una frecuencia no utilizada de la banda de radio, la 802.11, o “wifi”, para hacer despegar la alta velocidad de radio que los industriales tardaban en iniciar. Informáticos interesados en cultura general iniciaron la concepción cooperativa de una enciclopedia universal y múltiple, Wikipedia, que rivaliza actualmente con los productos editoriales del sector. Militantes de la sociedad civil internacional desarrollaron las herramientas más originales de comunicación y de coordinación multilingüe para intercambiar alrededor de todo el planeta. Aunque muy diferentes, estas múltiples innovaciones presentan características que provienen de la lógica de innovaciones por el uso: ellas parten de los usuarios y se difunden en la red organizando la cooperación entre los usuarios. Aun si este proceso de innovación por los usuarios no se limita al universo de las tecnologías informáticas y de telecomunicación, el desarrollo del modelo de producción cooperativa y abierta del software libre constituye la forma más emblemática y de más alto rendimiento de las innovaciones ascendentes. La generalización de la disponibilidad de las herramientas de comunicación y la digitalización de la información constituyen, en efecto, un contexto particularmente propicio para la difusión de estas innovaciones que se sustraen, al menos parcialmente, del mercado, cuando los innovadores juzgan necesario mantener abierta la innovación y asegurar el acceso gratuito. Ahora bien, se constata actualmente que el modo de organización y el espíritu del software libre se extienden y se generalizan a otros sectores. A la producción y a la distribución de contenidos, en primer lugar: medios de comunicación alternativos en modo open publishing (Indymedia, OurMedia), enciclopedias abiertas (Wikipedia), puesta a disposición de conocimiento científico (como los proyectos Telabotanica, Gutemberg o el sistema de publicaciones científicas de la Public Library of Science). Al hacer de las infraestructuras de comunicación un bien común, como en el caso de ciertos defensores del wifi, el ingenio de los utilizadores se dirige actualmente hacia las maneras de desarrollar servicios para compartir la conectividad. Esta proliferación produce una tendencia a la fragmentación del conjunto del sector de las TIC, que tendrá consecuencias importantes sobre los modelos industriales de los grandes operadores. La noción de innovación por el uso se inspira en una intuición desarrollada en los trabajos de Eric Von Hippel [4], profesor de la Sloan School of Management del MIT, sobre las “innovaciones horizontales” en las cuales el usuario no es simplemente “astuto” o “furtivo”, como en la figura del desvío inesperado de las herramientas técnicas que la sociología del uso ha popularizado, sino que se compromete un poco más lejos, participando directamente en la confección de innovaciones a partir de las tecnologías y de los servicios que se hallan a su disposición. Eric Von Hippel aísla de este modo a un grupo de actores, los user/self-manufacturers, del conjunto de los usuarios, y señala, a partir de encuestas sobre segmentos industriales muy diferentes que, según los mercados, 10 a 40% de los utilizadores remodelan o arreglan con sus propias manos los productos que compran [5]. Los actores de la innovación horizontal no son pues necesariamente usuarios “avanzados”, “intensivos” o “high-tech” que sirven como “grupos de referencia” en los estudios de mercado para identificar las dinámicas de difusión de los nuevos productos y servicios. En efecto, ni el nivel económico, ni la tecnofilia, el nomadismo o el estatus profesional conducen, más específicamente que otras variables, a estos lead users a convertirse ellos mismos en productores de innovaciones o de nuevos servicios. Lo que constituye a un grupo de usuarios en la vanguardia de una “innovación horizontal”, es antes que nada la inquietud práctica y concreta de encontrar por sí mismos y con sus propios medios soluciones adaptadas a sus necesidades - estrategia que los actores económicamente favorecidos adoptan pocas veces, a menudo porque el tiempo, a diferencia del dinero, les falta. La innovación ascendente procede del uso y ella toma impulso en las múltiples exploraciones que ciertos usuarios emprenden procediendo a adaptaciones, astucias ingeniosas, bricolages low-tech y ensamblado de productos existentes. Adaptar los productos y servicios a sus propias necesidades transformándolos no es exclusivo del mundo del software libre y de las nuevas tecnologías. Esta manera de hacer nacer la innovación de las prácticas inventivas de los utilizadores es hasta muy frecuente en los mercados “gran público” donde ella ha sido adoptada por los dispositivos avanzados del marketing. El mundo del surf, explica por ejemplo Eric Von Hippel, ha sido revolucionado por una innovación producida en 1978 en Hawai por un grupo de jóvenes surfistas que improvisaron un soporte de pies para sostener la tabla cuando saltaban sobre las olas. Esta pequeña adaptación técnica, que requería algunas cintas y un pote de cola, permitió hacer más accesibles las figuras acrobáticas complejas reservadas a una élite de surfistas súper entrenados. La práctica elitista y restringida del surf se vio revolucionada y la sucesión de innovaciones aportadas por sus practicantes a la tabla para mantener el contacto con el surfista favoreció la ampliación de esta actividad a nuevos públicos. Si bien los industriales adoptaron rápidamente las micro-innovaciones aportadas a la tabla de surf, solo pudieron acceder a ellas observando, en las playas y en los pequeños talleres de los alrededores, los múltiples bricolajes que los surfistas intercambiaban con entusiasmo. Confiar en la sagacidad de los utilizadores permite hacer emerger funcionalidades que responden directamente a sus necesidades. Los usuarios avanzados son siempre los mejores intérpretes de sus necesidades y la expresión de éstas está a menudo tan fuertemente incorporada en contextos de utilización específicos que es difícil y costoso para los industriales comprenderlas y extraerlas de su entorno. Es la razón por la cual cuando la necesidad “adhiere” fuertemente al contexto del uso, puede ser más fácil para los usuarios desarrollar por sí mismos la solución a sus problemas. La innovación por los usuarios despeja más fácilmente el camino a nuevas funciones que vienen a satisfacer necesidades, hasta entonces mal o poco identificadas. En efecto, las incitaciones a innovar de los usuarios y de los industriales son diferentes; mientras que los usuarios buscan encontrar la mejor funcionalidad para su necesidad, los industriales se ven incitados a desarrollar una solución a partir de su dominio de los procedimientos genéricos con el fin de reducir los costos de transferencias de la necesidad específica de los clientes. De suerte que usuarios e industriales tienen tendencia a desarrollar dos tipos diferentes de innovación porque disponen de informaciones asimétricas. Un estudio sobre el desarrollo por los usuarios o por los industriales de las innovaciones en las funcionalidades de los instrumentos científicos ha demostrado así que los utilizadores tenían más bien tendencia a desarrollar instrumentos que les permitieran hacer cosas nuevas, mientras que los industriales tenían tendencia a desarrollar nuevos instrumentos que hicieran la misma cosa, pero de manera más simple o más segura [6]. Cuando la necesidad y la solución pertenecen a la experiencia del utilizador, éste puede crear un nicho de innovación de bajo costo (user’s low-cost innovation), un verdadero pequeño laboratorio personal, que se refiere generalmente al desarrollo de funcionalidades inéditas. Abrir y compartir Mientras que en el modelo de la innovación centrado sobre la firma, las innovaciones son protegidas por cláusulas de propiedad intelectual y destinadas a un mercado de clientes individuales y atomizados, en el modelo de innovación por el uso, las innovaciones están abiertas y circulan, de manera reticular, entre los usuarios. Existe una relación estrecha entre el hecho de revelar su innovación y el hecho de compartir su desarrollo con los otros usuarios. Cuando la innovación es conducida por los usuarios, explica Von Hippel, éstos están interesados en revelar a los demás su innovación antes que en conservarla secreta o tratar de protegerla por cláusulas de propiedad intelectual. Numerosos argumentos vienen a sostener esta hipótesis. Los primeros son contingentes. Es, en efecto, muy difícil para las personas privadas disponer de recursos suficientes para mantener una patente y licenciar una innovación. Y estas protecciones jurídicas son a menudo fáciles de obviar, tanto más teniendo en cuenta que las innovaciones de usuarios emergen frecuentemente en el mismo momento y en diferentes lugares. La segunda categoría de argumentos es más fundamental. Numerosos antecedentes, a los cuales la aventura del software libre ha dado una nueva escala, muestran que la innovación mejora su calidad gracias al apoyo colectivo que recibe y a su capacidad de integrar por ajustes sucesivos las mejoras aportadas por otros. La innovación es un proceso de aprendizaje por el uso, tanto que buscar protegerla y controlar sus utilizaciones debilita su calidad y sus oportunidades de atraer la atención de los industriales. Esta ley de eficiencia de la cooperación abierta ha sido resaltada por los promotores del software libre, detrás de la célebre fórmula de Eric Raymond “given enough eyeballs, all bugs are shallow” : “More users find more bugs because adding more users adds more ways of stressing the program... Each [user] approaches the task of bug characterization with a slightly different perceptual set and analytical toolkit, a different angle on the problem. So adding more beta-testers... increases the probability that someone’s toolkit will be matched to the problem in such a way that the bug is shallow to that person” [7]. Es también en razón del carácter heterogéneo de las capacidades y de las necesidades de los usuarios intensivos que la innovación puede beneficiarse de la diversidad de sus puntos de vista y de sus soluciones para encontrar una forma estable y generalizable. Mientras que la innovación industrial trata de producir una solución genérica a partir de las competencias específicas y de los procedimientos de fabricación que ella domina apuntando a una figura promedio y estándar de la necesidad, las innovaciones por el uso producen por su parte innovaciones que hacen converger las especificidades de las soluciones de los utilizadores. A lo genérico producido “desde arriba” en dirección de una necesidad promedio, la innovación por el uso opone otra forma de lo genérico, construida por ajuste progresivo de la multiplicidad de las soluciones aportadas por los utilizadores. Ella privilegia la integración de las diferencias a la reducción hacia el promedio. “When users’ needs are heterogeneous and when information drawn on by innovators is sticky, it is likely that product-development activities will be widely distributed among users, rather than produced by just a few prolific userinnovators” [8] Se comprende entonces que este proceso parezca más “creativo”, en tanto que permite más fácilmente la integración de puntos de vista heterodoxos en la concepción. Los tres círculos de la innovación por el uso En los procesos de innovación por el uso, se puede distinguir tres círculos de actores diferentes: el núcleo de los innovadores, la nebulosa de los contribuidores y el círculo de los reformadores. La mayoría de los procesos observados funcionan según este modelo por círculos concéntricos (cf. fig. 1) Fig. 1. Los tres círculos de la innovación por el uso 1. Un núcleo restringido de innovadores La iniciativa de las innovaciones por el uso es conducida por un grupo muy pequeño de personas, como el colectivo Minirézo en el origen de SPIP, o a menudo hasta por un solo individuo que ejerce luego un control vigilante sobre el destino de su iniciativa, como es el caso del fundador de Wikipedia, Jimmy Wales. Contrariamente a la idea frecuentemente difundida por los defensores de innovaciones con base cooperativa, el desarrollo “técnico” de estas innovaciones es raramente una producción colectiva ampliada, sino que a menudo esconde a un grupo restringido de fundadores y una verdadera jerarquía en las formas de participación en la innovación, aun cuando esta jerarquía esté a veces disimulada, a fin de no entrar en contradicción con el discurso igualitario de los promotores de dichas innovaciones. Esta primera iniciativa está asociada a menudo muy estrechamente con la resolución de un problema práctico que encuentra el iniciador en su vida personal. En 1989, Col Needham se cansó de no poder recordar los títulos de las películas que le gustaban. Así pues creó una base de datos personal para registrar títulos de películas, sus directores y actores, en un newsgroup de Usenet. Diez años más tarde, el Internet Movie Database, más conocido bajo el acrónimo IMDb, se convirtió en uno de los “10 sitios esenciales” según Time Magazine. 25 millones de personas se conectan a él cada mes para consultar una base de 6,3 millones de películas, construida de manera cooperativa por sus utilizadores. Los innovadores mezclan a menudo sus actividades personales o de distracción a las competencias técnicas que han adquirido y desarrollado en un marco universitario o profesional. Este efecto de “aprendizaje por el uso” adquiere una importancia muy grande en el caso de las innovaciones con base cooperativa, lo que les confiere como propiedad esencial una “adherencia” (stickiness) al contexto de uso colectivo que les ha dado origen y hace muy difícil su desplazamiento en el marco cerrado de la investigación en laboratorio. 2. La fuerza de la nebulosa de los contribuidores Un segundo rasgo común a estas innovaciones es el al hecho de que estos proyectos personales adquieren fuerza y consistencia en la movilización de redes sociales de allegados, que vienen no solamente a alentar a los iniciadores, sino también a aportar su contribución al proyecto. Los amigos de Col Needham inscriben sus películas favoritas en la base que él acaba de crear, los de Jimmy Wales le proponen rápidamente los primeros artículos de la Wikipedia, la notoriedad de SPIP y de sus primeras utilizaciones siguieron, en su primera fase, a una difusión a través de la red de amigos y militantes de sus promotores, etc. Los innovadores se hallan de este modo reforzados en su proyecto por la fuerza de los compromisos que suscitan. La intervención de los contribuidores procede de la reputación en la red de la notoriedad de la innovación. Ella es raramente sostenida por técnicas de difusión comercial o estrategias promocionales de gran envergadura. Por otra parte, esta nebulosa de contribuidores que rodea al núcleo de los innovadores interviene más bien para animar intercambiando contenidos, que sobre el dispositivo técnico en sí mismo. Una división de roles aparece entonces entre participación en la innovación técnica y contribución a los contenidos. Esta diferencia de naturaleza en las formas de compromiso constituye un resorte esencial en el modo de difusión de las innovaciones con base cooperativa y determinan a menudo su destino. 3. El ecosistema de los reformadores En la articulación entre el núcleo de los innovadores y la nebulosa de los contribuidores se forma progresivamente un segundo círculo de reformadores más involucrados que intervienen en el proyecto técnico para reforzarlo y mejorarlo. Este segundo círculo aparece principalmente cuando efectos de escala obligan a modificar y a intervenir sobre el dispositivo técnico inicial para garantizar su perennidad, produciendo un conjunto de variantes, agregados, funcionalidades especializadas que van a reforzar progresivamente los dispositivos instalados. Los hilos RSS refuerzan a los blogs, la Fundación Wikimedia capitaliza los proyectos con base cooperativa para Wikipedia, etc. Las innovaciones ascendentes forman así ecosistemas, que funcionan a veces según las lógicas de competencia de un mercado, sancionando los proyectos por el uso, pero que también permiten a cada innovación beneficiarse con los efectos externos que juegan unas con respecto a otras. Las consultas sobre IMDb, por ejemplo, tomaron una nueva dimensión con el desarrollo de “softwares P2P”, a los cuales ofrecen un sistema de búsqueda de buen rendimiento y universal. La intervención de los “reformadores” contribuye de este modo a convertir en genérica a la innovación, sacándola de su contexto local, haciendo que se vuelva banal y estándar. Tensiones y debates en torno a las innovaciones por el uso Cuando son confrontadas con el cambio de escala que suscita la multiplicación de los contribuidores, las innovaciones ascendentes deben aceptar cierto número de desafíos. 1. La dialéctica continente/contenido La extensión de las dinámicas gratuitas en el mundo de las TIC depende estrechamente de la manera en que se articulan las inversiones orientadas hacia el continente (la innovación técnica) y aquellos que se refieren a los contenidos (las producciones intercambiadas por la nebulosa de contribuidores). Aun cuando ellas sean a menudo paralelas, estas dos dinámicas constituyen dos componentes diferentes de los proyectos con base cooperativa. Ahora bien, el éxito de las innovaciones ascendentes depende a menudo de la tolerancia que sepan mostrar sus iniciadores ante la diversidad de formas de compromiso en su proyecto. No sin dificultad, los promotores del software libre, verdadera aristocracia de técnicos, han debido aceptar abrir su software a utilizadores profanos simplificando las interfaces de sus herramientas como, por ejemplo, con Open Office o Firefox. Los sitios contributivos deben tolerar una misma diversidad de participaciones que va desde el desarrollo informático hasta la corrección de faltas de ortografía. Los animadores de Wikipedia se esfuerzan, por ejemplo, por ampliar los medios sociales de sus contribuidores, con el fin de que los artículos sobre la Edad Media no sean exclusivamente redactados por informáticos aficionados de la cultura gótica, sino también por profesores de historia, apasionados por las catedrales y lectores de Chrétien de Troyes. El desarrollo de las innovaciones con base cooperativa se juega pues en la manera en que ellas llegan a extraerse de la cultura técnica en la cual nacieron, sin renegar por ello de los principios de comportamiento abierto y colaborador que importaron del mundo de la informática. 2. Politización/despolitización En el curso de su desarrollo, las innovaciones por el uso deben, a menudo, hacer frente a un momento de redefinición de su proyecto inicial. En efecto, las inversiones iniciales de las cuales eran el soporte presentan frecuentemente objetivos militantes afirmados, sobre todo cuando sus impulsores hacen de la apropiación de tecnologías un medio de resistir y de concebir alternativas al mundo mercantil. Sin embargo, al dar cabida a nuevas formas de contribución y tolerar una amplia diversidad de compromisos, los proyectos con base cooperativa son a veces colonizados por usos más cercanos al consumo de servicios gratuitos que al compromiso en una informática “ciudadana”. Es el caso, por ejemplo de las telecargas que usan herramientas libres P2P o accesos “oportunistas” a la red wifi. El cambio de escala parece diluir la vocación inicial de las innovaciones y genera toda una serie de dilemas para los conductores de proyectos, como fue el caso en las primeras comunidades wifi. Estas tensiones normativas están inscriptas en el corazón de la mayoría de las innovaciones por el uso. A menudo, por otra parte, juegan un efecto positivo sobre las capacidades de innovación, favoreciendo la multiplicación de las contra-iniciativas y de los efectos de corrección. Pero esta oposición entre “puro” e “impuro” puede también constituir un peligro mortífero para los proyectos con base cooperativa. Así pues la instauración de una gobernabilidad pluralista de las innovaciones con base cooperativa, tolerante con la diversidad de las razones que tienen los actores para comprometerse, parece a menudo indispensable para su éxito. 3. Los riesgos de desintegración Las innovaciones por el uso viven siempre bajo la amenaza de la desintegración del colectivo inicial. Esta se perfila primeramente en el momento de la ampliación del núcleo de los fundadores a nuevos integrantes, momento crucial del desarrollo de las innovaciones con base cooperativa donde se juega la distribución de tareas entre antiguos y nuevos y el mantenimiento de la autoridad simbólica de los fundadores en la conducción colectiva del proceso. Pero el riesgo de desintegración aparece sobre todo con la proliferación de las innovaciones complementarias aportadas por el segundo círculo de los reformadores. Estos aportan especificaciones nuevas al proyecto fundador, pero sucede también que “bifurcan” para crear un proyecto paralelo. Esta tendencia a la desintegración aparece hasta como una constante en el universo de las innovaciones ascendentes: multiplicación de las licencias libres, distribuciones de Linux, herramientas de CMS, desarrollo de la “bifurcación” AGORA a partir de SPIP, etc. Estas lógicas centrífugas son las consecuencias de la necesaria diversificación de los servicios que conducen a las innovaciones por el uso a buscar el mejor ajuste a una multiplicidad de contextos. Pero ellas obligan también a los portadores de innovaciones a mantener estándares de interoperabilidad entre los servicios que generan. 4. La articulación con el mundo mercantil El desarrollo de la infraestructura técnica de los proyectos gratuitos se vuelve rápidamente crítico cuando se amplía la nebulosa de los contribuidores. Así pues es necesario encontrar financiamientos que cubran la gestión técnica de los proyectos (albergue, banda, etc.), pero también a veces atribuir salarios a los animadores de sitios, con el fin de liberarlos de un voluntariado que se vuelve extenuante con el crecimiento de las contribuciones, como en el caso de IMDb. Las innovaciones por el uso se vuelven entonces hacia patrocinantes institucionales (universidades, programas de apoyo gubernamental) o privados (fundaciones, mecenas, donaciones privadas). Pero ellas se prestan también a articulaciones más complejas con el universo mercantil, manteniéndolo al mismo tiempo al margen de sus proyectos con servicios de adaptación y de personalización de la innovación, como es el caso de las sociedades de servicios desarrolladas en torno al software libre (RedHat) o del sistema de retribución por los servicios mercantiles ante los cuales ellas producen efectos externos positivos, como lo atestigua el reciente partenariado de Google con Wikipedia. 5. El reconocimiento de la creatividad de los usuarios Como lo señala Eric Von Hippel, las innovaciones de los usuarios constituyen un hecho externo positivo para el mundo mercantil y un factor de crecimiento del bienestar social para la sociedad en su conjunto. Al permitir identificar necesidades y conocer usos de bajo costo, ellas constituyen un espacio de exploración de nuevas necesidades sociales sin duda más eficaces que los grupos de creatividad que el marketing trata de desarrollar pidiendo a cobayos improbables imaginar sus usos de las tecnologías futuras. Las innovaciones por el uso alientan la creatividad y ofrecen servicios de utilidad social que responden a necesidades específicas que el mercado no sabe o no quiere satisfacer. Por eso es útil aportar un mejor reconocimiento a la creatividad y a la inventiva de los usuarios en el campo de las TIC y reforzar las condiciones que la hacen posible, preservando el carácter flexible, abierto y no apropiable de las tecnologías de Internet. Las innovaciones por el uso que mucho han aportado al dinamismo de Internet son actualmente amenazadas por el refuerzo de las lógicas propietarias, atestiguado por el endurecimiento de las reglas de propiedad intelectual o el cierre de ciertos dispositivos técnicos (DRM). Aun cuando los usuarios tengan que encontrar todavía su propio camino a través de las limitaciones tecnológicas y las prescripciones comerciales, sería sin embargo lamentable que se cierre el espacio de innovación y de creatividad de Internet. Comunidades virtuales Luis Ángel Fernández Hermana Como testimonia el ya clásico libro de Howard Rheingold “The Virtual Community: Homesteading in the Electronic Frontier” (La Comunidad Virtual, Editorial Gedisa, Barcelona), los años 80 registraron la discreta efervescencia de las comunidades virtuales en EEUU de la mano de la difusión de Internet en centros académicos y de investigación y la incipiente popularización de las BBS. Por primera vez, se experimentaba la bidireccionalidad en espacios virtuales lo que significó, al mismo tiempo, la diseminación de una forma peculiar de autoorganizarse, de autogestionar el acopio, producción y gestión de información y conocimiento. Aquellas formas de organización no tenían parangón en el mundo real: la relación asíncrona, el estar siempre conectado sin estarlo (una especie de contestador automático multitudinario), el ser protagonista de estos procesos y no mera audiencia pasiva, invitaban lógicamente a mirar la realidad de otra manera. Una evolución global de la relación con la información Pero ¿qué pasaba en la realidad en aquellos años? ¿Hasta qué punto la evolución social era indiferente o marcaba las pautas de lo que ocurría en ese nuevo territorio, más allá de la “frontera electrónica”? El concepto de que “Información es poder”, el pilar del modelo político sustentado por los dos imperios, se volvió de golpe insostenible, entró en crisis justamente en la era de Ronald Reagan. Todo el poder basado en el uso estratégico de la información sobre la fuerza militar, el PIB, la actividad industrial de la población, el control de los recursos energéticos y naturales, no permitieron anticipar ni en un segundo el colapso de la URSS (ni siquiera el surgimiento de una potencia como Japón). Por entre los resquicios de esta crisis que puso al mundo patas arriba, se filtraban hacia la superficie nuevos elementos que pujaban por un protagonismo definitivamente destinado a tumbar el rígido marco de relaciones impuesto por la guerra fría. Las tecnologías de la información, en general, e Internet, en particular, las tensiones del sistema educativo, la flexibilidad organizativa de las empresas al amparo de nuevos modelos de gestión del conocimiento (frecuentemente más exitosos en el papel que en la realidad), el manejo de información que excedía el habitual marco en el que se desenvolvían individuos y colectivos, todo ello cosido por el sutil hilo de la interacción, conformaba lo que podríamos denominar la “factoría” de un nuevo poder. En ese nuevo escenario se produjeron dos cambios significativos con respecto a la fase anterior. Por una parte, la información cambió de naturaleza. Ahora no dependía tanto de la capacidad de acopiar y procesar información por agentes especializados para hacer un uso estratégico de ella a partir de un proyecto jerarquizado (y bipolar), se tratara de agencias públicas o privadas o de medios de comunicación. La relación entre el poseedor de la información y el resto de la sociedad que cuajó tras la segunda guerra mundial, entre el emisor y el receptor, el primero jugando un papel activo y determinante en el proceso de selección y distribución y el segundo uno pasivo, de consumidor sin capacidad de respuesta significativa, comenzó a volar por los aires cuando las tecnologías de la información inyectaron dos rasgos nuevos y subversivos: cualquiera podía publicar en la Red y lo que se publicaba estaba sometido de inmediato al juego dinámico de la interacción. Hasta entonces, el conocimiento estaba fundamentalmente confinado entre los muros de las organizaciones que lo protegían como un “bien estratégico”. Hablamos de ciertos individuos (científicos, expertos, etc.), empresas, corporaciones, agencias públicas, agencias policiales o militares, centros de investigación, universidades, partidos políticos, sistema educativo formal, etc. Ahora, sin embargo, desde la irrupción pública de la Red, sobre todo desde lo que podríamos llamar el proceso de resocialización de la “world wide web”, una parte sustancial de ese conocimiento reside en individuos, colectivos, empresas, organizaciones, administraciones e instituciones que se expresan en redes abiertas, turbulentas y expansivas. Estos tres últimos términos no son metáforas literarias, sino que son categorías que nos permiten comprender la estructura de la Red que recibimos en cuanto nuevos usuarios: Una red abierta: nadie controla al que entra, no hay cancerbero, ni gerente, ni “espigador digital” que se encargue de aplicar criterios selectivos de acceso; Una red turbulenta: nadie controla la actividad de los demás (los gobiernos cada vez lo intentan más, pero, en principio, tratan de luchar contra este principio sin mucho éxito); Una red expansiva: si no hay forma de controlar a quien entra y lo que hace, el contenido de la red crece constantemente de manera caótica, redundante y exponencial. La frontera entre los detentadores del poder informativo y lo que podríamos llamar en sentido amplio como la “audiencia” se volvió de repente difusa, ambigua, compleja. El medio virtual, poblado por ordenadores en red, teléfonos, televisión, los multimedia y sistemas de satélites, comenzó a solaparse con poderes tradicionales corporativos, militares, sociales, económicos y políticos. En unos casos, recortando sensiblemente su fuerza y la lógica de su preeminencia, en otros potenciándolos y multiplicándolos. En segundo lugar, el poder de la información estaba basado anteriormente en el criterio de la exclusión (contra menos la poseyeran, más valiosa, más “puro” el poder que emanaba de ella). Sin embargo, en un mundo integrado por las comunidades virtuales aposentadas en las tecnologías de la información, el valor se desplazaba hacia la capacidad cooperativa de los agentes sociales. El ámbito digital convirtió a la información y el conocimiento en mercancías cruciales en las nuevas relaciones internacionales en un mundo rápidamente cambiante donde lo global y local adquirieron un significado nuevo, específico. Poseer información en exclusiva se volvió una tarea cada vez más espinosa, costosa, insostenible y, a la postre, estéril. La sociedad de la información reclamaba una participación que dinamitaba tales intentos exclusivistas, por más que durante bastante tiempo estos perdurarán con éxito pues todavía subsisten poderosas estructuras heredadas de la guerra fría. De esta manera, frente al “poder duro” de la guerra fría, blindado por la fuerza nuclear con su capacidad de destrucción y el valor de la información con el fin de mantener la vigencia de la política de bloques, surgió el “poder blando” sustentado en las tecnologías de la información. De la transferencia de información en una relación unilineal entre el procesador activo de información (Estado, empresa, medio de comunicación, etc.) y el receptor pasivo, hemos pasado al diálogo multilateral, transversal, interactivo, hasta alcanzar lo que podríamos denominar la unidad básica de producción de información y conocimiento socialmente útil: la comunidad virtual (CV). En otras palabras, estamos construyendo un mundo mucho más complejo, más ambiguo y menos esquemático, donde interactuar es poder. Un nuevo estado de las cosas caracterizado por multitud de archipiélagos de comunidades virtuales cuyas leyes de funcionamiento contravienen las rígidas reglas del poder duro que hemos conocido hasta ahora. Características de las comunidades virtuales Ahora se trata de saber cuál ha sido la progresión de la actividad que se desenvuelve más allá de la frontera electrónica y qué podemos hacer al respecto. Y la respuesta ya no nos viene de los poderes establecidos, no sólo, sino fundamentalmente de la creciente capacidad para promover y actuar en CV que colocan a los individuos frente a la eventualidad de organizar sus deseos, sus aspiraciones o incluso su propia cotidianeidad en contextos virtuales en principio vacíos, que aguardan la acción de los conectados para adquirir la forma que estos les otorguen. Este cambio se ha convertido en una fuerza pluralizadora que construye mercados no represivos y que, además, no refuerza necesariamente - como antaño - un poder centralizado, aunque lógicamente no lo excluye, porque son los individuos y las organizaciones quienes deciden la fisonomía y funciones de las CV que crean y en las que actúan. Las CV, sólo existen y funcionan en la medida en que sean fruto de la actividad de los ciudadanos, entendidos estos como individuos, colectivos formales o informales, empresas, organizaciones, etc. Asi se han creado espacios artificiales (virtuales) nuevos, dotados de una serie de características no siempre comprensibles desde los parámetros del “mundo real”. 1.- La información es de los usuarios. Es decir, la Red, en principio, está “vacía” y son los usuarios quienes deciden qué información van a almacenar, mostrar e intercambiar. Por tanto, cada usuario decide por dónde empieza a ver la Red, para qué y con quiénes. 2.- El acceso a la red es universal: basta acceder a un ordenador de la red, para acceder a toda la red o “ver” toda la Red (otra cosa es que, una vez dentro de la Red, haya lugares donde se pida el registro para acceder a la información que contienen); simultáneo: todos estamos en la Red al mismo tiempo, pues existimos en cuanto información (ceros y unos). En realidad, la red es desde sus orígenes el primer contestador automático que se puso en funcionamiento. Nadie sabe si estamos conectados o no, pero nos relacionamos entre todos como si lo estuviéramos a través de nuestra presencia numérica, de la información que “movemos” y de las interacciones que promovemos; independiente del tiempo (24h./365d.) y de la distancia. Es el primer espacio abierto constantemente a la actividad del ser humano independientemente de donde se encuentre. Sólo necesita acceder a un ordenador de la Red para que todo lo expuesto anteriormente funcione. 3.- Finalmente, los otros dos rasgos que cierran este comprimido código genético es que la red crece de manera descentralizada y desjerarquizada. Basta seguir añadiendo ordenadores (servidores) para que se esparza física y virtualmente y no hay ordenadores que desempeñen tareas de “comando y control” sobre los otros ordenadores de la Red. Si la información de la red es la que colocan o publican sus usuarios, estamos en un entorno eminentemente PARTICIPATIVO. De hecho, la red se retroalimenta constantemente de las señales que emiten sus usuarios. Esta participación conduce inexorablemente a la INTERACCIÓN, es decir, a la relación con lo que hacen los demás (no hablamos de intensidad o grados de dicha relación, sino que participar significa “mover” información propia en relación con los otros y mover información de los otros en relación con la propia). El resultado inescapable de ambos puntos es un CRECIMIENTO constante de la información y el conocimiento que circula por el sistema. La evolución, por tanto, es un factor incorporado a la propia estructura de Internet. Crecimiento no significa sólo añadir más información, sino también todo lo que esto conlleva: sistemas de búsqueda, de clasificación, de síntesis, de participación e interacción, de reagrupamientos sistémicos o efímeros, de transacción e intercambio, de organización de la información y de su visibilidad, etc. La emergencia rápida y multiforme de las CV Los cambios desde este punto de vista han sido fenomenales y muy rápidos. Las primeras CV tuvieron como protagonistas a ingenieros, programadores y hackers, tras lo que vino Usenet y los espacios de colaboración en el sector de la I+D. Estas actividades en los nuevos espacios virtuales rápidamente abarcaron un índice temático amplísimo. Poco después eclosionaron las CV desprendidas de las BBS, así como las que se organizaron dentro de Compuserve y AOL, entre otras, así como la aparición de organizaciones sociales de amplio espectro, entre las que podríamos citar por su representatividad a APC, paraguas de decenas de redes en los cinco continentes pobladas por comunidades virtuales agrupadas por áreas de intereses claramente definidos. La actividad desarrollada bajo este paraguas ya apuntaba a un cambio paradigmático de la complejidad del mundo de las comunidades virtuales y de una incipiente forma de intervención política con características muy diferentes a lo que hemos conocido hasta ahora. La APC jugó un papel importantísimo en la Conferencia Mundial del Medio Ambiente y el Desarrollo, más conocida como Cumbre para la Tierra, que se celebró en Río de Janeiro en 1992. En el campus del Global Forum (conferencia alternativa a la oficial) instalaron salas repletas de ordenadores donde instruyeron a cientos de ONG de todo el planeta a utilizar Internet. Durante los años siguientes, miles de personas de los cinco continentes, constituidas en CV más o menos formalizadas, se autoorganizaron para el intercambio de información, pusieron en marcha proyectos, canalizaron fondos y organizaron protestas desde la Red. Mientras los medios de comunicación guardaban un vergonzoso silencio sobre las políticas de ajuste estructural del Banco Mundial, estas CV estaban perfectamente versadas en su significado y consecuencias, en el papel complementario del FMI y en el impacto que ambas entidades causaban en India o América Latina. Esta caldera explotó siete anos mas tarde en Seattle ante la presentación de una organización nueva y desconocida como la Organización Mundial del Comercio (OMC) que procedía de los no menos misteriosos aledaños del GATT y la Ronda de Uruguay. Pocos de los que vivían en la superficie de la sociedad “real” pudieron comprender de dónde venía y qué significaba aquel movimiento que se enfrentaba con conocimiento de causa al BM, al FMI y a la OMC y que comenzó -erróneamente- a autodenominarse antiglobalizador. Una nueva forma de entender la política ¿Estábamos ante una nueva forma de hacer política? Posiblemente. Pero claramente no se trataba de la política como la habíamos entendido hasta entonces con las características de continuidad en la actividad, crecimiento sobre lo hecho (tradición), propósito explícito de conquista de espacios sociales o administrativos y elaboración de agendas de actividad a partir de lo actuado. Lo que no se entendía -y creo que todavía no se entiende claramente- es que algunos de los rasgos definitorios de las CV planteaban un escenario político diferente: la multiplicidad posible de CV -como la multiplicidad posible de ecosistemas, por eso muchos hablan de nichos en los ecosistemas ante la dificultad de “renombrar” dichos nichos al interior de una concepción sistémica de los hábitat-, lo cual no permitía catalogar claramente dónde residía el poder ni en qué consistía éste cuando se reclamaba prohijado por comunidades autoorganizadas. El proceso constante, sostenido, incontrolado, de crecimiento de la población conectada, lo cual desplaza sin cesar la frontera entre el sector “maduro” de las CV, con amplia experiencia, consciente o no, de lo que significa trabajar con los otros, interactuar con los otros, en contextos más o menos organizados, y el sector de los “recién llegados”. Esto lleva a una reinvención permanente de la actividad en la Red lo cual conspira contra el asentamiento de las formas menos organizadas (más efímeras) de relación en la red, por importante que ellas sean. El respeto compartido a los fines y las metodologías acordadas por los miembros. Esta es la nueva ética, o la ética de la Red. Prácticamente no existe un espacio equiparable en el mundo físico donde sus ocupantes tengan la oportunidad de verificar lo que sucede, examinar la naturaleza de los intercambios registrados y analizar si cumplen con las normas colectivamente aprobadas. Este proceso de retroalimentación de la propia actividad conlleva una fuerte carga ética, porque el respeto no es compartido tan sólo a partir de una mera declaración de intenciones, sino de la forma como éstas se plasman en los archivos comunes de la CV, para sus miembros y para quienes no lo son. Los rasgos de los archivos donde se registra la actividad de las CV. Este es un factor crucial al que no siempre se le presta la debida atención. Cuando se habla de formas de relación política, o expresión de una nueva ética de las relaciones, etc., esto no sucede sólo para la foto fija de una CV que ha tenido la oportunidad de compartir una parte de su trayecto, sino que, a través de sus archivos, representa un factor pedagógico de primer orden para los que se van uniendo progresivamente a la CV, algo que no existe comparativamente en el mundo real. Por tanto, ese factor está determinado por los rasgos de la organización de su histórico, su transparencia, grado de comprensión y de la capacidad de diseminación de su contenido a otras CV o áreas de población conectada (o no). Por consiguiente, el elemento tecnológico, desde este punto de vista, es tan importante como, por poner un ejemplo, lo es organizar nuestra biblioteca particular para que la comprenda un vecino, no sólo en cuanto organización formal de los libros, sino como expresión también del trayecto recorrido por uno mismo. La creación de un espacio virtual para el aprendizaje no formal, un entorno que no podemos encontrar en el mundo real. No se trata de procesos de aprendizaje especulativo o intelectual. Lo determinante es la acción colectiva, a través de la cual se comparte información, conocimientos y experiencias de una manera más o menos formalizada, más o menos consensuada. Los interrogantes compartidos y la metodología de trabajo en un espacio virtual común consiguen que elementos dispersos de conocimiento se manifiesten, se socialicen, se intercambien, se combinen para generar un conocimiento operativo. Las CV maduras o complejas las llamamos también redes inteligentes por las siguiente razones: Su contenido está relacionado con la consecución de objetivos concretos (inteligencia del proyecto); Su contenido no reside sólo en lo que saben algunos de sus miembros, sino en la generación y gestión colectiva del conocimiento que interesa a la CV (inteligencia del trabajo en colaboración); Su contenido depende de la orientación de la red hacia otras redes para intercambiar información y conocimiento, estén o no en la misma organización (inteligencia de las interacciones en red). La dificultad objetiva para construir una religión de la CV en el sentido estricto del término, es decir de “religar” la actividad que ocurre en el espacio virtual (tomando en cuenta la amplia diversidad de actuaciones, organizaciones, metodologías, objetivos, organización de trayectorias, relaciones entre CV, etc.) con lo que ocurre en el mundo real, incluso en aquellos casos en que en éste último se manifieste la emergencia de movimientos sociales organizados en red. Esta dificultad atenta contra la construcción de un concepto como el del valor, visto ya sea desde el prisma político, económico o cultural, pues en realidad tiene más valor el “vapor” que el valor en cuanto seña de identidad de esta época. Y, desde mi punto de vista, la CV expresa claramente este rasgo difuso e, incluso, es su portadora y promotora. Este punto anterior es crucial porque está relacionado con el trasvase que se pueda hacer desde las actividades que los individuos desarrollan en CV de diferentes características y con diferentes propósitos, a una actividad fuera de la red que plantee un modelo de organización social basado en principios de autogestión y autoorganización. A veces, al querer aplicar la misma escala de valores (o semejante) entre una y otra, entre lo virtual y lo real, nos hace perder de vista hasta qué punto lo que podríamos denominar “filosofía de la CV” desde el punto de vista organizativo (autoorganización, autogestión, transparencia de las actuaciones, registro histórico abierto a la consulta y a la diseminación de sus contenidos, etc.), permea actualmente un sinfín de relaciones a todas las escalas en el mundo real: individual, profesional, empresarial, gubernamental y no gubernamental (ONG), institucional, ciudadana, etc. Esto no significa, por supuesto, que se produzca necesariamente un trasvase automático de formas organizativas típicas de la CV al mundo real, de la misma manera que las formas organizativas del mundo real entran inmediatamente en tensión y conflicto cuando se las pretende imponer en el mundo virtual como forma de alcanzar metas a través de la interacción y el trabajo colectivo. La tipología de las CV es ilimitada, es casi una función de la sencillez para constituirlas y desarrollarlas: un objetivo explícito, un grupo de gente que coincide en desarrollar ese objetivo mediante intercambios, una metodología de trabajo (que incluye la posibilidad de la moderación), un espacio virtual organizado (que abarca desde la lista de distribución hasta entornos virtuales altamente organizados con servicios de asistencia a la comunidad virtual -consultores, materiales adicionales obtenidos en la web, referencias bibliográficas, conexiones a otras redes o CV, buscadores de los materiales generados por la CV, etc.-) y archivos transparentes y con diferentes grados de organización. Además, el territorio susceptible de ser colonizado por las CV tampoco reconoce límites: dede las agrupaciones espontáneas o más o menos dirigidas en ámbitos abiertos, hasta las que se organizan en empresas e instituciones, en las relaciones entre ciudadanos y entre estos y las administraciones públicas, en entornos profesionales o de ocio, o las que persiguen objetivos sociales, económicos, culturales o científicos que mantienen una diversidad enorme de criterios respecto a la procedencia o características de sus integrantes. En realidad, como dijimos más arriba, estamos hablando de la célula básica de producción de información y conocimiento en la Sociedad del Conocimiento, por tanto estamos apuntando a los rasgos políticos de dicha producción cuando la enmarcamos en las CV. A lo ilimitado de la tipología de las CV posibles, se une otro factor: su gobierno. Desde las reglas difusas de las primeras BBS que contenían CV dedicadas a abordar determinadas temáticas -al principio, fundamentalmente, las relativas a la propia tecnología y los programas informáticos que permitían conformar el espacio virtual en red para el funcionamiento de la propia CV, por elemental que esta fuera- hasta las CV de una mayor complejidad en su normativa interna que prefigura elementos avanzados de autogobierno, de consenso democrático y de una nueva forma de entender la política a través de un contexto deliberativo implícito que emerge con toda su fuerza en los momentos críticos del funcionamiento de la CV. En este gobierno de la CV ha desempeñado históricamente un papel esencial el moderador, que progresivamente va emergiendo como una figura nueva en los modelos de cooperación asíncrona y de autoorganización de lo que, de otra manera, tendería a un caos por acumulación. El moderador, si está armado de una clara metodología de trabajo, es una de las pocas personas de la CV que puede modular su calidad, ritmo de funcionamiento y la calidad y el tono de los intercambios. En definitiva, la Sociedad del Conocimiento se construye sobre la capacidad de crear, tratar y transmitir información y conocimiento. Y esta capacidad implica una nueva percepción -o conjugación- de términos como productividad, eficiencia y rentabilidad de los saberes. La CV tiende a optimizar la creación, gestión y difusión del conocimiento que resulta de las prácticas de sus miembros, lo cual supone un aumento de la libertad de acción de cada uno de ellos. Le texte transformé a été copié dans le presse-papier : il ne vous reste plus qu’à le coller (Ctrl-V) dans SPIP. Bonne chance ! Bibliografía Lave, J. y Wenger, E. (1991). Situated Learning : Legitimate Peripheral Participation (Learning in Doing : Social, Cognitive and Computational Perspectives). Cambridge Univ Press. H. Rheingold, (1993). The Virtual Community: Homesteading on the Electronic Frontier. Addison-Wesley, New York Rheingold, Howard. (1996) La comunidad virtual. Barcelona.: Gedisa. Barry Welman et al. (1996) Computer networks as social networks: Collaborative work, telework and virtual communities. Annual Review of Sociology 22; 213-38. P. Kollock, M. Smith. (1996) Managing the virtual commons: cooperation and conflict in computer communities. En Computer Mediated Communication: Linguistic, Social and Cross-Cultural Perspectives. Amsterdam, John Benjamin. Armstrong, A y Hagel, J. (1996). The real value of on-line communities. Harvard Business Review, May-June, 1996. Resnick, P. y Varian, H. (1997). Recommender Systems. Communications of the ACM, 40:1 Wenger, E. (1998). Communities of Practice: Learning, Meaning and Identity. Cambridge University Press Kollock, P. (1998) The Economies of Online Cooperation: Gift Exchange and Public Goods in Cyberspace. En Communities in Cyberspace editado por Marc A. Smith, Peter Kollock y Ian Heywood. Routledge. Mynatt, E.; O Day, V.; Adler, A. e Ito, M.(1998). Network communities: Something old, something new, something borrowed. Computer Supported Cooperative Work: The Journal of Collaborative Computing 7: 123-156. Wellman, B y Gulia, M. (1998). Net surfers don’t ride alone: Virtual communities as communities. In Communities in Cyberspace edited by P.Kollock y M. Smith. Berkeley: University of California Press. Cashel, Jim. (1999). The emergence of collaborative communities. Online Community Report. Kollock, Peter. (1999) Communities in Cyberspace. Routledge, USA. Gilly Salmon. (2000) E-Moderating: The Key to Teaching and Learning Online, by Editorial: Kogan Page, ISBN: 0749431105 M. Dodge, R. Kitchin. (2001) Mapping Cyberspace. Routledge, Londres. AÑAS Alberto. (2001) Construcción de comunidades Virtuales: Terra-formar el ciberespacio o ciber-formar la escuela. Global Thinkers, Montreal. M. Surman, D. Wershler-Henry. (2002) Commonspace: Beyond Virtual Community. Prentice Hall PTR. S. Dasgupta. (2005) Encyclopedia Of Virtual Communities And Technologies. Idea Group Publishing. Pimienta, D. (2005) At the Boundaries of Ethics and Cultures: Virtual Communities as an Open Ended Process Carrying the Will for Social Change (the “MISTICA” experience) In Capurro, R. & al. (Eds.) Localizing the Internet. Ethical Issues in Intercultural Perspective. Schriftenreihe des ICIE Bd. 4, München: Fink Verlag Webografía Cisler, Steve. (1993) Community computer network: Building Electronic greenbelts. http://www.cpsr.org/program/communi... Wooley, D. R. (1998). The future of Web conferencing. Think of it. http://thinkofit.com/webconf/wcfutu... Erickson, T. (1999 a) Designing Systems that Mesh with Social Processes. Chi 99. the Computer Human Interaction Conference, Pittsburgh, PA May 18-20, 1999 Online Communities workshop. http://www.cc.gatech.edu/ asb/works... erickson.html Jones, M. (1999). Research Issues in the design of on-line communities. Chi 99. the Computer Human Interaction Conference, Pittsburgh, PA May 18-20, 1999 Online Communities workshop. http://www.cc.gatech.edu/ asb/works... Wikipedia. http://es.wikipedia.org/wiki/Portada L.A. Fernández Hermana. (2002) La flecha del tiempo virtual. Editorial en.red.ando 304. http://lafh.info/articleViewPage.ph... L.A. Fernández Hermana. (2002) La fiesta de los autistas. Editorial en.red.ando 306. http://lafh.info/articleViewPage.ph... L.A. Fernández Hermana. (2003) Los cimientos del espacio virtual. Editorial en.red.ando 356. http://lafh.info/articleViewPage.ph... Ciberoteca del proyecto MISTICA: http://funredes.org/mistica/castell... Bibliotecas digitales Hervé Le Crosnier Ante la explosión documental provocada por la red informática, el papel de las bibliotecas en la organización, conservación y puesta a disposición de los documentos sigue ocupando un lugar fundamental. Contra la ilusión técnica de un universo documental “auto - organizado”, abierto a todos, en el cual la información circula libremente, abordar la cuestión a partir de la experiencia de las bibliotecas nos permite concebir, por el contrario, un equilibrio entre innovaciones técnicas y condiciones sociales de creación y difusión de los documentos. El acceso al saber para todos necesita “bibliotecas” en el universo digital, y las bibliotecas cambian de naturaleza y de función confrontándose a la necesidad de llenar sus misiones sociales y culturales en el ciberespacio. Una definición socio - técnica En el sentido tradicional, una “biblioteca” es un lugar en el cual los libros son: conservados para las generaciones futuras, con el fin de ofrecer una continuidad a la producción cultural y constituir la memoria colectiva; organizados: la “clasificación” forma parte de la emergencia de nuevos saberes y facilita la ubicación de documentos; y abiertos a la lectura por todos y en todo lugar. El usuario de una biblioteca puede consultar los libros “in situ” o utilizar la “red de bibliotecas” con el fin de obtener en su propia ciudad documentos que no están presentes en la colección local. Las bibliotecas funcionan desde hace tiempo “en red”, para compartir el trabajo creando los “catálogos colectivos”, y para garantizar el Acceso Universal a las Publicaciones. Desde la invención de los ordenadores, los centros documentales han aprovechado para crear “bancos de datos”, verdaderos puntos de acceso a las referencias, especialmente en el campo científico. De este modo las bibliotecas se vuelven responsables ante los lectores (permitirles acceder a toda la información del mundo) y ante los documentos (garantizar que serán legibles mañana, y que serán descritos en un banco de datos clasificado). Su experiencia puede servirnos de marco de trabajo para pensar en “documentos digitales” en la duración y en la organización del libre acceso al saber. En los años 90, el mundo de las bibliotecas da nacimiento al concepto de “bibliotecas digitales” y decide conferirle tanto preocupaciones técnicas como misiones sociales y culturales. Christine Borgman [1] menciona en 1999 dos enfoques distintos que son utilizados entre los profesionales de las bibliotecas. Ella describe “un conjunto de recursos y de capacidades técnicas para crear, buscar y utilizar la información”, pero subraya también que “las bibliotecas digitales están concebidas y organizadas para (y por) una comunidad de usuarios, y sus medios son utilizados para responder a las necesidades de información y a los usos de esta comunidad”. Un enfoque que también fue propuesto por el Virginia Tech Institute en 1998: “una biblioteca digital no se resume en una colección digitalizada y en herramientas de gestión de la información. Es también un conjunto de actividades que ponen en relación las colecciones, los servicios y los usuarios a todo lo largo del ciclo de creación, difusión, uso y conservación de datos, información y conocimientos” [2]. El uso de la informática en las bibliotecas digitales ya no se limita a la creación de catálogos o de portales de acceso, sino que cubre el almacenamiento, la búsqueda y la provisión en un formato siempre legible, de los documentos en sí mismos, en su diversidad. Para la Association of Research Libraries, “las colecciones de las bibliotecas digitales no se limitan a un cúmulo de referencias, sino que se refieren a todos los artefactos digitales que no pueden ser presentados o representados en forma impresa”[3]. La biblioteca digital es también una biblioteca “multimedia”. Digitalizar y archivar Con el desarrollo de las redes, la lectura de los documentos se hace cada vez más a través de lo digital. Las bibliotecas se plantearon entonces muy rápido la pregunta acerca de la “digitalización” de los documentos impresos, pero también de la transformación de las películas o de las grabaciones sonoras, con el fin de facilitar su difusión. Rápidamente, también se dieron cuenta de que existía, en un crecimiento acelerado, un conjunto de documentos que originalmente eran digitales, especialmente en los sitios web. Otro aspecto de su trabajo se destinó a organizar estos documentos y a asegurarles su duplicado. La digitalización de las obras impresas ha sido lanzada a principios de los años noventa en numerosas bibliotecas y centros de archivos en el mundo. Así, el programa Gallica de la Biblioteca Nacional de Francia propone más de 7000 obras del siglo XIX, 80.000 imágenes y decenas de horas de grabaciones sonoras [5]. El programa “Google Print” [6], anunciado con grandes refuerzos mediáticos en diciembre de 2004, se propone digitalizar centenares de miles de obras de cinco bibliotecas de los Estados Unidos. Este anuncio hizo correr ríos de tinta, especialmente en Francia, donde el presidente de la Biblioteca Nacional de Francia aprovechó la ocasión para ampliar Gallica hacia un programa europeo multilingüe de digitalización [7]. El acceso a la cultura del pasado se vuelve, a través de la digitalización, no solamente una cuestión económica, sino también “geopolítica” [8]: hay varias visiones del mundo, y ellas están inscritas en los libros. Para construir la Paz, hay que hacer cohabitar en el universo digital todas las formas lingüísticas, pero también las diversas trayectorias históricas. La China y la India, al lanzar un partenariado en Internet Archive y la Universidad de Michigan [9]; el mundo árabe, a pesar del pillaje y la destrucción de la Biblioteca de Bagdad, lugar de invención de la escritura; y el Africa para los manuscritos del siglo XIII hallados en Tombuctú [10], tienen proyectos de digitalización que pueden reequilibrar una visión demasiado “occidental” de la cultura y del conocimiento. Sin embargo, es grande el peligro de que el financiamiento por los países desarrollados o las organizaciones internacionales se traduzca en un flujo en sentido único de cultura y de conocimiento. Especialmente porque el estatuto jurídico de las obras digitales no está claramente establecido. La digitalización daría nuevos derechos a la empresa que la ha realizado, lo que se traduciría en una nueva apropiación del patrimonio. El ejemplo del Código Leicester de Leonardo da Vinci es significativo: comprado por Bill Gates se encuentra en un cofre de banco, la única versión es digital, y el copyright ha sido atribuido a Corbis. Si no tomamos precauciones, la digitalización puede traducirse en una nueva privatización del dominio público. La otra parte de la constitución de bibliotecas digitales consiste en “archivar la web”. Así como Internet Archive [4], numerosos programas públicos y privados tienen como objetivo constituir “colecciones” de imágenes digitales del pasado sin embargo, cercanas a Internet. Estamos pues confrontados a varios problemas: ¿cómo seleccionar la parte de la web que será archivada (muestreo)? ¿tal archivo debe ser hecho en conexión con los editores de los sitios web, o bien una biblioteca puede considerar que esos documentos disponibles pueden ser archivados por ellas en nombre del uso legítimo (fair use)? ¿cómo colectar documentos dispersos en millones de máquinas? ¿cómo transformar esos documentos (páginas web) con el fin de permitir al lector del mañana abordar la experiencia que pudo ser la de un lector en el momento de la aparición (reproducir lo más fielmente posible no solamente el contenido de los sitios, sino también su apariencia)? ¿cómo permitir a un lector leer documentos que ya no existen en Internet, en razón de la desaparición de los sitios, pero que todavía no son del dominio público? Se puede pensar que numerosos autores desean que las obras que dejan libremente en Internet en el momento de su creación pueden quedar en los archivos de las bibliotecas. Esta cuestión de archivo de la web plantea también un problema más fundamental de definición del documento en su paso a formato digital. [11]. Uno de los mitos de Internet consiste en reemplazar el “documento”, que se puede leer y releer, por el “flujo de información”, siempre renovado, más próximo a la “comunicación audiovisual”. Este mito se apoya sobre una evolución muy real de las prácticas sociales en torno a la escritura/lectura: blogs, mail, secuencias video, podcasts, sitios evolutivos, wiki, etc. El estatuto de los autores cambia. ¿Cómo guardar el rastro de este cambio?¿Cómo hacer disponibles las ideas y las acciones de los años anteriores? En suma, cómo transformar el flujo de Internet de hoy en documentos que seguirán siendo legibles mañana? Dos estrategias para encontrar documentos digitales Porque el ordenador se vuelve la herramienta privilegiada de la creación de nuevos documentos, tanto en la mesa del escritor como para el investigador universitario, tanto para el montaje de video como para la creación musical, el número de documentos editados (en este caso, colocados en la web) se multiplica sin medida común con los problemas anteriores. Como la cuestión de la identificación de los documentos responde a la necesidad de un lector, el hecho de que esta necesidad sea científica, política o cultural adquiere entonces un lugar preponderante.¿Cómo encontrar una aguja en esta proliferación de información? Dos estrategias han sido establecidas: los “motores de búsqueda” (Google, Yahoo, MSN) utilizan el contenido de los documentos para efectuar la búsqueda. Esto favorece las búsquedas precisas cuando la pregunta conlleva varias palabras (por ejemplo, la búsqueda de una cita). Pero hace más difícil la búsqueda de conceptos. Las clasificaciones de las bibliotecas digitales, y cada vez más de las herramientas propuestas en el marco de la “web semántica” [12], apuntan a elaborar “lenguajes documentales” en los cuales se puede “navegar” a fin de encontrar en ellos los documentos que se hallan agrupados por proximidad de sentido. Estas dos estrategias son complementarias [13]. Si la primera se apoya sobre el cálculo y en consecuencia, sobre la potencia informática, la segunda demanda una intervención humana. La primera está sometida a las imprecisiones del lenguaje, a las manipulaciones por los servicios de “referenciación” y a las opciones escondidas de los algoritmos; la segunda sufre de visiones a menudo demasiado específicas y parciales de la clasificación de conocimientos. Cada clasificación (desde la Dewey de las bibliotecas hasta el anuario de Yahoo!) es el reflejo de visiones acerca del mundo, de las preocupaciones “actuales” del grupo que la crea, la desarrolla y la utiliza. Las clasificaciones utilizadas en Internet están principalmente ligadas, hoy, a las necesidades de los países desarrollados. Disponer de un sistema de clasificación evolutivo, completo, de facetas múltiples y realmente mundial exige mucha inversión humana. Ahora bien, disponemos con Internet de la capacidad de hacer cooperar a muchas personas para esas tareas. Los proyectos cooperativos como el Open Directory Project. [14] o la folksonomía [15] permiten a los mismos lectores participar en la clasificación de los documentos digitales. Se constituye un nuevo rol de las bibliotecas digitales encontrar los medios técnicos y humanos para animar esta dinámica, para garantizar que los puntos de vista del mundo entero sean bien respetados, y para facilitar las traducciones de los conceptos. El modelo calculatorio de los motores de búsqueda está, por su parte, sesgado por las limitaciones económicas que pesan sobre esas empresas. Asociar las búsquedas documentales y las ganancias publicitarias se vuelve entonces une necesidad que pesa a su vez sobre el equilibrio de notoriedad de los documentos encontrados. Los documentos que aparecen en primer lugar en una lista de respuestas son a la vez citados, lo que les hace aun más conocidos. Es un efecto “mediático” que tiende a dividir los documentos entre un pequeño número leído y citado muy a menudo y los otros que seguirán siendo casi desconocidos. La cuestión de la diversidad cultural y lingüística y la de la calificación de la ciencia (el control por los pares - peer review) no pueden ser tomadas en cuenta por el modelo algorítmico de los motores de búsqueda. Y esto más aun cuando se trata de documentos largos, como los libros [16]. Con los grandes motores de búsqueda, vemos emerger un real “nuevo media” en Internet. Ahora bien, este media, herramienta de promoción, de venta de espacio publicitario y amplificador del “éxito” de audiencia, se presenta únicamente bajo el ángulo de una herramienta “técnica” destinada a explotar mejor los recursos de la web. Bajo esta aparente banalidad, podemos sin embargo desde ya notar los deslices que van a favorecer a los documentos producidos en inglés, en los países desarrollados. Los documentos “gran público” van a ser privilegiados por el sistema de descuento de los vínculos (la page rank de Google) en detrimento de la búsqueda y de las obras críticas. En suma, lejos de constituir un medio de acceder a toda la información, es grande el riesgo de favorecer solo a una parte de la información, la que tiene los medios de constituir audiencia gracias a las diversas técnicas de marketing que apuntan a hacer aparecer a los sitios al comienzo de la lista. Esta nueva dominación mediática emergente es motivo de preocupación para los países en desarrollo. Más aún teniendo en cuenta que ninguna regla de limitación de la concentración, ninguna ley antimonopolio ha sido establecida para ese sector. El libre acceso al conocimiento Las bibliotecas, porque permiten leer documentos hallados y clasificados fuera de las reglas del mercado y de las presiones religiosas o ideológicas, son herramientas esenciales para ampliar al mundo entero, y sobre todo en dirección de las mujeres, el libre acceso al conocimiento. Es porque son servicios abiertos a todos (y a todas) que las bibliotecas han buscado siempre promover la lectura, la reflexión, el pensamiento, para todas las categorías de la población. Para asegurar esas misiones, y finalmente mejorar el nivel de vida y de conciencia de los individuos y de los países, las bibliotecas se apoyan en “limitaciones y excepciones” en el marco de las leyes sobre los Derechos de Propiedad Intelectual. La lectura pública, el uso de obras bajo copyright en las escuelas y universidades, la difusión de la ciencia se han hecho posibles por medio de numerosas reglas de uso presentes en las leyes y la jurisprudencia sobre el derecho de autor o sobre el copyright. Así, es posible la noción de “fair use” (uso legítimo) que permite a las bibliotecas hacer leer a su público, en su local o a domicilio, las obras, las músicas o las películas y reportajes que ellas han adquirido regularmente. Las compras de las bibliotecas constituyen un motor económico esencial para un gran número de obras, especialmente los documentos críticos, especializados, de alto nivel, o en lenguas minoritarias en el seno de un país determinado. Ahora bien, esas excepciones y limitaciones son profundamente alteradas por el pasaje a formato digital y aún más por la difusión de los documentos por vía electrónica en red. En tal sentido, la IFLA (International Federation of Library Associations) recoge: la instauración de nuevas capas legales sobre las leyes de copyright, como el “derecho de las bases de datos” (la organización de las informaciones en base de datos confiere una propiedad, aun si las informaciones no están sometidas a copyright); las Medidas Técnicas de Protección (DRM), que impiden a los lectores utilizar las excepciones legales (por ejemplo, la copia privada); las licencias no negociables que van más allá de las reglas sobre los usos legítimos (cada documento digital propone une “licencia”, contrato privado cuyos términos, redactados únicamente por el editor, se vuelven superiores a la Ley). Agreguemos que las reglas de conservación de los documentos electrónicos no siempre son observadas por las prácticas de los editores. Ahora bien, solo los organismos independientes, que hayan recibido una misión, pueden garantizar la imparcialidad y la completitud del archivo y de la preservación de los documentos. Los ejemplos sobre la historia de documentos que desaparecieron una vez que su uso salió de la esfera económica, son abundantes. Agreguemos también que las bibliotecas participan en la extensión de los usos colectivos de Internet. Ellas albergan telecentros o lugares de creación multimedia. Herramientas de educación popular, las bibliotecas permiten a muchas personas el aprendizaje colectivo de la lectura de documentos electrónicos. Ahora bien, las reglas de derecho, así como las prácticas del comercio, solamente tienen en cuenta los usos “individuales de los documentos. Un concepto tan restringido afecta en particular a las mujeres, en los países donde ellas están sometidas a una presión que limita su acceso a la escuela y al conocimiento, y para quienes las bibliotecas son refugios culturales. Entonces ¿cómo mantener y ampliar en los países en desarrollo y a las capas de población que tienen poco acceso a la lectura, el servicio que prestan las bibliotecas en el universo digital? Esta pregunta constituye un desafío fundamental para un desarrollo mundial sostenible. Es también una cuestión de salud pública (acceso a los conocimientos que permiten hacer frente a las pandemias), de construcción de la Paz (por la inter - comprensión de los pueblos y de las culturas), y de extensión de la democracia y de los Derechos Humanos. Es una de las razones que conducen a los bibliotecarios, en particular los de la IFLA, a participar en la acción de la sociedad civil para escribir un “Tratado para el libre acceso al conocimiento” [18]. Los tres desafíos de las bibliotecas digitales Hemos hallado tres ejes alrededor de los cuales parece necesario concebir la construcción de bibliotecas digitales. Estos tres ejes cubren las actividades tradicionales de las bibliotecas y al hacerlo muestran que la experiencia adquirida con los libros y revistas en las últimas décadas puede servir también en una situación en evolución muy rápida, más marcada por la comunicación que por la gestión de la información documental, como la de Internet actualmente. la conservación y la digitalización: ¿cómo elegir los documentos a digitalizar, cómo garantizar la cobertura de todas las ideas y todos los idiomas? ¿Cómo archiva los flujos de informaciones que circulan en Internet en provecho de generaciones futuras? ¿Cómo conservar en el seno de los bienes comunes los documentos del dominio público que son digitalizados? la búsqueda documental: ¿cómo articular los modelos de motores de búsqueda y los de clasificación, a fin de evitar que el conocimiento se convierta únicamente en un registro de la “popularidad” de tal o cual idea o concepción? ¿Cómo desarrollar el multilingüismo y la navegación por conceptos prometidos por la “web semántica” asociando a todos los internautas del mundo entero? el acceso a los documentos: ¿cómo mantener las limitaciones y excepciones a la propiedad intelectual que permiten a los bibliotecarios participar en la libre circulación de los conocimientos en el universo digital? ¿Cómo evitar que nuevos derechos y técnicas de propiedad asociados a los documentos numéricos vengan a reducir la capacidad de todos y de todas, de acceder al conocimiento? Al mirar Internet con ojos de bibliotecario, podemos percibir mejor la necesidad de guardar los rastros de su intensa actividad. Podemos situar mejor la reflexión en la duración y encontrarnos menos sometidos a los entusiasmos mediáticos. Podemos, en fin, medir en el campo de las ideas, la importancia de la implementación de normas de descripción (los metadatos) y la interoperabilidad (la traducción, la cooperación en la descripción documental y la necesidad de reformatear permanentemente los documentos para que sigan siendo legibles, siguiendo la evolución técnica) que están en el fundamento de las técnicas de Internet. Haciendo esto, volvemos a encontrar una concepción social de la información y del conocimiento, que construye a la vez patrimonio (las obras del pasado) y acceso a las informaciones más actuales (las publicaciones científicas). Relativizamos las visiones estrictamente comerciales de la producción de cultura y de conocimiento situándonos desde el punto de vista de los bienes comunes de la información y de sus efectos sobre el desarrollo de las personas y de los países. Gestión de saberes Pascal Renaud En buena Filosofía, toda deducción que tiene como base hechos o verdades reconocidas, es preferible a lo que no se apoya más que en hipótesis, por ingeniosas que sean. Diderot & D’Alembert - Discurso preliminar Conservar, transmitir, difundir las ideas, los saberes. La cuestión no es nueva. Ha sido abordada con talento por los enciclopedistas, así como ha alimentado numerosos debates entre bibliotecarios... Pero con la llegada de la informática, esta cuestión de gestión de conocimientos se presentará de una manera nueva. Cierto número de “visionarios”, tales como Alvin Toffler con el “choque del futuro” luego los “nuevos poderes”, Jean Jacques Servan Schreiber con “el Desafío Mundial” ponen en evidencia el lugar creciente ocupado por los saberes en los procesos de producción y el papel determinante que la informática deberá jugar en la conservación y difusión de los conocimientos. Estamos a finales de los años 70, los ordenadores se multiplican en las universidades y en los laboratorios de investigación. Poco a poco, ellos irán revolucionando el tratamiento de los conocimientos. Su utilización para describir las obras hace nacer una nueva tecnología: la informática documental. Ella permite efectuar operaciones de indexación y de investigación sobre la creciente cantidad de obras. Se proyecta el desarrollo de grandes bancos de datos documentales capaces de indexar aspectos enteros del conocimiento humano. Se inician inmensas obras con el objeto de construir bases de datos multidisciplinarios. Al mismo tiempo, los que investigan la inteligencia artificial, exploran una vía aún más ambiciosa. Se trata de hacer interactuar los conocimientos entre ellos. Por medio de softwares que aplican los principios de la lógica matemática, logran simular razonamientos humanos sobre fracciones de texto. Estos dispositivos, bautizados “sistemas expertos” formulan conclusiones explorando una “base de conocimientos”. Parecen capaces incluso de establecer diagnósticos (Mycin) o evaluar situaciones... Con la llegada de Internet en los años 90, las grandes bases documentales pierden su lugar de punto de acceso central a las novedades científicas ante el desarrollo del intercambio directo entre investigadores. Las listas de correo electrónico, las noticias o “news”, luego la Web, favorecen nuevas practicas de intercambio de saber. Los “newsgroups” y otros foros electrónicos se multiplican mucho más allá de los medios científicos y técnicos. Algunos son cerrados, reservados al uso exclusivo de sus miembros, y muchos son abiertos con un objetivo altruista o militante. Son estas experiencias de mutualidad de conocimientos y de libre publicación las que finalmente van a inspirar a los teóricos de la gestión de empresa. La gestión de conocimientos, nueva disciplina de las ciencias del management, agrupa un conjunto de recetas destinado a obtener el mejor partido del know how y de la experiencia de los asalariados de la empresa. Utilizaremos en este texto el término inglés reconocido internacionalmente de “Knowledge Management” o KM. Pero volvamos un poco sobre estos diferentes conceptos y su evolución. Las bases de datos documentales A fines de los años 70, parecía entonces posible agrupar en una inmensa base de datos la documentación de numerosas bibliotecas, aun de todas la bibliotecas, y hacerla accesible a distancia gracias a la “telemática [1]”. El principio es indexar cada documento (obra, mapa, artículo...), es decir describirlo con palabras clave en un resumen. Estas descripciones son llamadas actualmente metadatos [2]. Se piensa poder ofrecer al utilizador la información exhaustiva sobre un tema, siempre que las obras del campo correspondiente hayan sido indexadas y que sea posible formular la pregunta en el lenguaje de la base de datos. En Francia se crea un instituto especializado para tratar la información científica y técnica [3] y se inicia el desarrollo de dos inmensas bases de datos para cubrir el conjunto de las ciencias y técnicas: Pascal [4] para las ciencias exactas y experimentales y Francis [5] para las ciencias humanas. Los proyectos de bases de datos documentales se revelarán muy onerosos. Tropiezan con el crecimiento vertiginoso del número de publicaciones científicas en una situación de estancamiento relativo de sus recursos presupuestarios [6]. A esto se agregará la dificultad de encontrar descriptores comunes a varias disciplinas, sabiendo que cada escuela de pensamiento adopta un vocabulario específico, generalmente muy rico y muy preciso. Ante el crecimiento de las dificultades, numerosos proyectos serán abandonados, otros reformulados con costos más bajos. Y finalmente solamente las bases de datos más especializadas destinadas a comunidades científicas determinadas lograrán imponerse en la comunidad científica internacional. Una de las más célebres es “Medline” que posee un repertorio de más de 80 millones de artículos en ciencias médicas. En los años 90, con la multiplicación de los sitios Web, un número creciente de documentos fue puesto en línea. Los primeros motores de búsqueda aparecen, de los cuales el más célebre es “AltaVista”. Pero es con Google en los años 2000 que los motores de búsqueda en Internet van a comenzar a destronar a las bases de datos documentales. El aumento de potencia de los ordenadores, la estandarización de los formatos de documentos, la eficacia de las técnicas de digitalización y de reconocimiento automático de caracteres, permiten conservar íntegramente obras en forma digital. La indexación manual, muy costosa y muy dependiente de un contexto, puede ser reemplazada por una indexación automática de todas las palabras. Esos inmensos índices son explotados por motores de búsqueda cada vez más sofisticados que son capaces de tomar en cuenta el perfil del utilizador, evaluar y resumir el contenido de cada documento y clasificar los resultados por orden de pertinencia. Como la búsqueda de algunos documentos en la montaña de información presente en la Web se parece un poco a la de un mineral en un subsuelo desconocido, se habla de “data mining”. Los sistemas expertos o sistemas de bases de conocimientos Se trata de otra rama del tratamiento informático de los saberes. El objeto de los sistemas expertos (SE) no es solamente encontrar información sino razonar sobre ella. Un SE se compone de un “motor de inferencia” y de un conjunto de informaciones muy estructuradas, llamado “base de conocimientos”. El motor aplica la lógica matemática a la base de conocimientos con el fin de llegar a conclusiones. Los principios lógicos son generalmente un poco improvisados para simular el carácter incierto del razonamiento humano. Mientras que la base de conocimientos está formada por reglas que constituyen la pericia en un campo. Una regla indica por ejemplo que “si el paciente tiene fiebre y la garganta enrojecida, entonces tiene muy probablemente (0,8) una angina”. El SE entabla un diálogo con el utilizador en función del contexto “¿El paciente tiene fiebre?”, “¿Es alérgico a tal medicamento? Con el fin de proporcionar un diagnóstico y proponer un tratamiento. Los SE obtuvieron los resultados más impresionantes en el campo médico. Las primeras experiencias (sistema Mycin, DENDRAL) se revelan muy prometedores [7]. Pero finalmente los investigadores trabajan intensamente para poner a punto sistemas capaces de tratar una gran cantidad de conocimientos. El SE es tanto más eficaz en la medida en que su campo de aplicación es restringido. Los SE de hoy son muy especializados, están integrados a softwares de diagnóstico y de ayuda a la decisión. EL SE es un dispositivo inquietante, porque presenta en forma de modelo la toma de decisión. Plantea el problema de la responsabilidad de esta decisión. El “Knowledge Management” El término suena bien. Responde a la lógica de marketing enseñada en las escuelas de comercio. Considera el saber como un bien de la empresa, un capital de conocimiento que conviene, en consecuencia, explotar lo mejor posible. En el plano técnico, el KM asocia los métodos documentales: digitalización, indexación, eventualmente sistemas expertos y sobre todo listas de difusión por comunidad que comparte la misma práctica o el mismo centro de interés. Se puede considerar que el KM recicla en provecho de la empresa capitalista, tecnologías y usos de Internet nacidos en las comunidades científicas o militantes y que las hicieron eficaces. Pero el KM no se reduce a la utilización de un conjunto de tecnologías. El objetivo es antes que nada obtener el mejor partido de los saberes de los asalariados, explicitándolos y valorizándolos. El KM es a las competencias inmovilizadas, lo que la gestión financiera es a los activos monetarios de la empresa. Se trata de obtener de ellas el mayor provecho. El KM permite de este modo administrar mejor el conjunto de las competencias de los asalariados y especialmente sacar partido de todos los talentos y saberes extra profesionales. Los conocimientos lingüísticos, técnicos, culturales que los empleados han heredado de su historia personal o han adquirido en el marco de su tiempo libre podrán ser listados. Luego los interesados son inscriptos en la «comunidad de práctica» correspondiente. Estos saberes constituyen lo que André Gorz denomina el capital humano [8]. “Las firmas deben apropiarse de la creatividad del personal, canalizarla hacia acciones y metas predeterminadas y obtener su sumisión”. El KM es el instrumento de esta canalización. Impone a los cuadros que tienen la misión de alimentar las bases de datos el respeto de normas estrictas que permitirá comparar las experiencias. Ellos deben poner en evidencia las lecciones aprendidas, las dificultades encontradas y deducir las buenas prácticas. El conjunto de notas y de informes es registrado, indexado, archivado. La base de datos será consultada sistemáticamente para preparar cada misión. El registro de la experiencia de la empresa forma una suerte de molde intelectual al cual cada uno deberá conformarse. El KM refuerza de este modo la cultura de la empresa en el sentido de que ésta es el resultado de prácticas y de una historia colectiva. Si bien puede evitar reeditar los mismos errores, el KM estimula de esta manera el conformismo y perjudica las iniciativas originales. Los responsables deberán desarrollar una argumentación muy sólida para justificar un cambio de actitud. Señalemos que British Petroleum (BP) estuvo entre las primeras empresas comprometidas en un vasto proyecto de KM. Mientras que el Banco Mundial se dotó de un importante servicio “para mejorar la velocidad y la calidad de los servicios, reducir los costos evitando repetir el mismo trabajo, acelerar las innovaciones y extender el partenariado en la lucha contra la pobreza.” [9] ¿El KM para el desarrollo? Luego del Banco Mundial, varias agencias de cooperación se interesaron en el KM. Es el caso, principalmente, de Bellanet [10] con su proyecto de compartir conocimientos [11] y de OxFam que acaba de repetir una guía completa sobre el tema. [12] Debemos interrogarnos sobre la pertinencia de conceptos salidos de las escuelas de comercio para la gestión de un servicio público o de una ONG. Hemos mostrado hasta qué punto el KM forma parte de la paleta del “management” de la empresa capitalista, apuntando a optimizar el rendimiento de su capital humano. ¿Acaso los métodos de gestión de la empresa privada cuyo objetivo es el lucro, pueden ser transpuestos en un establecimiento encargado de una misión de interés general y financiado por fondos públicos, ya sean nacionales o internacionales? Examinemos más de cerca la introducción del KM en el Banco Mundial. En junio de 1995, James D. Wolfenson, nuevo Presidente del grupo, debe acallar las críticas de inmovilismo y de burocracia de ciertos miembros de su Consejo de Administración. Wolfenson quiere acelerar la adaptación del Banco a la “extraordinaria mutación de la economía mundial (...) que se caracteriza por el auge prodigioso del comercio mundial y de la inversión privada.” [13] Desea generalizar los métodos de gestión de las empresas privadas y hacer de la institución un organismo reactivo y competitivo, capaz de arrebatar mercados a otras instituciones de cooperación internacional. Introduce el KM y lanza una vasta reorganización de las estructuras jerárquicas [14] y de las modalidades de evaluación del personal. Para conciliar el principio del KM, orientado hacia la valorización egoísta del capital humano de la empresa y la misión altruista de la institución, introduce la noción de Knowledge Sharing y lanza el “concepto” de “Knowledge Bank” encargado de valorizar los saberes en el Sur para luchar contra la pobreza. En un documento de 20 páginas, traducido en varios idiomas, “saber al servicio del desarrollo” [15], el Banco nos explica muy claramente cómo se supone que el KM favorece el desarrollo. “Los países en desarrollo no tienen que volver a inventar la rueda (...) en lugar de rehacer el camino ya recorrido, pueden adquirir y adaptar una buena parte de los conocimientos disponibles en los países ricos. Como el costo de las comunicaciones no cesa de disminuir, nunca la transferencia de conocimientos ha sido tan barata” y un poco más lejos en las estrategias nacionales para reducir las desigualdades, el BM nos explica que “tres factores facilitan esta adquisición: el libre intercambio, la inversión extranjera y la explotación bajo licencia de tecnologías importadas”. Haciendo notar sin embargo que “los países en desarrollo sólo podrán sacar partido de la masa de conocimientos disponibles en el mundo si adquieren la competencia técnica requerida para investigar y seleccionar las tecnologías... asimilarlas y adaptarlas”, propone “transformar los institutos públicos de investigación en sociedades por acciones”. A la lectura de este documento escrito en el momento cumbre de la implantación del KM en el Banco, es forzoso constatar que el saber propuesto está altamente impregnado de ideología. ¿Es esa la razón por la cual los gabinetes de expertos consideran la introducción del KM en el Banco Mundial como un éxito total? En 2004 y por cincuenta años consecutivos, el Banco Mundial es clasificado por Teleos entre las 20 “empresas de saber más admiradas” [16], codeándose con BP, Shell, Ernst & Young, HP, IBM y Microsoft. Evidentemente, es más difícil saber si los mejores clientes del Banco Mundial, es decir los países menos avanzados, están satisfechos con el Banco del saber. Estos mismos expertos hacen notar que el Banco Mundial es a la vez una empresa con una cultura dirigida hacia los saberes, y una empresa abierta a compartir el saber en colaboración. Se trata aquí de una característica específica que se encontrará en términos parecidos en OxFam [17]. La particularidad del KM para el desarrollo es que, a la vez, es un dispositivo de valorización de los saberes internos y un programa de transferencia de competencias destinado a clientes y socios. ¿Qué puede ser más generoso para el Banco que compartir su capital de saber, su cultura interna? Este procedimiento, que se inscribe en la tradición de las relaciones Norte - Sur, no es nuevo ni sorprendente. Los países donadores son llevados generalmente a imponer su cultura a los países beneficiarios de la ayuda. El KM es solo un nuevo embalaje destinado a disfrazar la relación de dominación. Esta expresión viene a renovar oportunamente nociones demasiado gastadas o consideradas paternalistas, tales como “asistencia técnica”, “fortalecimiento de las capacidades” o “desarrollo de las capacidades” [18]. ¿Qué hacer con el KM? ¿Es el KM una noción esencialmente neoliberal? ¿Se puede practicar un KM alternativo cuyo objetivo no sería ni la explotación del capital humano del que nos habla André Gorz, ni la forma contemporánea de la relación de tipo neocolonial que analiza Kenneth King? Señalemos en primer lugar que el término saberes crea una ambigüedad. “El conocimiento se adquiere por la experiencia, todo el resto no es más que información” decía Albert Einstein. El saber no se extrae, como el agua, del fondo de un pozo. No está compuesto por elementos independientes que se eligen en un almacén de repuestos. Se adquiere por la experiencia y el aprendizaje en un proceso complejo que incluye una relación de confianza entre el maestro y el alumno. Va acompañado necesariamente de la aceptación de valores comunes que legitiman ese saber. Pero dejemos de lado el empleo impropio de la palabra “saber” con fines de marketing y veamos cuáles son las ideas fuerza del KM: Administrar la información relativa a la experiencia y al know how: registrar esta información en bases de datos documentales; asegurar su disponibilidad a través de dispositivos sofisticados de búsqueda de información (Data Mining); alimentar eventualmente otras herramientas de conservación de la expertise, tales como sistemas expertos; Favorecer la emergencia de redes de colaboradores que compartan saberes y motivaciones (comunidad de práctica); utilizar dispositivos informáticos basados sobre listas de e-mail, foros en línea, o software de trabajo en grupo [19] para animar esas redes; Para los KS (knowledge sharing), agreguemos el hecho de compartir informaciones (de conocimientos) entre varios donadores y el compartir informaciones (¿las mismas?) entre los donadores y sus clientes o socios. Resulta forzoso constatar que estas prácticas de expertise colectiva, hasta se diría de inteligencia colectiva [20] han sido inventadas por comunidades que se dedican a compartir el saber. Se trata principalmente de comunidades científicas, donde la investigación fundamental no puede desarrollarse sin la libre circulación de los conocimientos. Se trata también de comunidades de desarrolladores de software libres. Una de las características esenciales de esas comunidades es la de funcionar sobre una modalidad de intercambio no mercantil que les sitúa en constante oposición con los excesos de la economía liberal [21]. Mientras que el concepto de KM está construido sobre una lógica exactamente opuesta, que consiste en recuperar los saberes no contractuales de los empleados de una empresa, canalizarlos e insertarlos en la cultura oficial de la empresa. El objetivo no es compartir, sino la ventaja comparativa en la competencia comercial. En consecuencia, dejemos el KM a las escuelas de comercio y elijamos un vocabulario menos ambiguo y cargado de más sentido: experimentación, aprendizaje, concertación, colaboración, publicación, gestión y repartición de contenidos libres, inteligencia cooperativa. Educacion en la sociedad de la información Rosa-María Torres ¿Estamos realmente en presencia de un concepto al hablar de Educación en la sociedad de la información?. El término no emerge con impulso y sentido propios, sino adosado a la retórica de la “sociedad de la información” (SI), anunciada como la sociedad del futuro, del siglo XXI. No tiene un significado único, convive con muchos términos afines sin bordes claros, y tiene escaso desarrollo conceptual, teórico y pedagógico. Igual que en la propia SI, en la Educación en la SI la idea de información, de conocimiento y, crecientemente, incluso de aprendizaje, ha ido quedando reducida fundamentalmente a las llamadas Modernas Tecnologías de la Información y la Comunicación (TIC), que a su vez tienden a centrarse en la computadora y la Internet, creando así nuevas identidades y formas de inclusión/exclusión: los conectados y los desconectados. Las tecnologias, ¿al servicio de que proyecto educativo-cultural? Aproximarse a las comprensiones y usos que viene adoptando la Educación en la SI implica aproximarse a cada uno de los términos que la conforman: “educación” y “sociedad de la información”. Tradicionalmente, el término educación evoca sistema escolar, educación formal e infancia. El énfasis se ha puesto sobre la enseñanza antes que sobre el aprendizaje. Se ha dado escasa importancia a este último, prevaleciendo los indicadores cuantitativos de acceso y terminación de grados y ciclos. Aprender se confunde con asimilar y repetir información. Suele darse más importancia a la infraestrucura y al equipamiento que a las condiciones de enseñanza y aprendizaje, al punto de vista de la oferta más que al de la demanda, a los resultados por sobre los procesos. La mentalidad escolar ha contribuido a restringir la visión y el campo de lo educativo, separándolo de lo económico, lo social y lo cultural en sentido amplio. Vistas desde la historia de la educación, las “modernas” TIC constituyen en verdad la última oleada de un continuo. La tecnología educativa o instruccional viene adquiriendo un alto perfil en el campo educativo desde hace varias décadas: en los años 60 y 70 fueron la radio y la televisión; en los años 80 y 90 los textos escolares, el video y la computadora como auxiliar en la instrucción; desde mediados de 1990 domina el escenario la computadora y el cederrón y, en años más recientes, la Internet, desplazando a las “tecnologías convencionales”. A fines de 1980 la UNICEF adoptó el término “Tercer Canal” para referirse a “todos los instrumentos disponibles y canales de información, comunicación y acción social (que) pueden ser usados para ayudar a transmitir los conocimientos esenciales e informar y educar a la población en asuntos sociales”, asumiendo la educación formal y no-formal como los otros dos canales educativos (UNICEF, 1990). La Conferencia Mundial sobre Educación para Todos (Jomtien, Tailandia, 1990), organizada por a UNESCO, la UNICEF, el PNUD y el Banco Mundial, cifró grandes esperanzas en este “tercer canal” para alcanzar las seis metas de educación básica para todos a cumplirse para el año 2000. Llegado el 2000, no obstante, e incumplidas las metas, éstas se redujeron y los plazos se aplazaron hasta el 2015. Hoy la meta para los países del Sur ya no es la “educación básica” (satisfacción de las necesidades básicas de aprendizaje de las personas, a lo largo de la vida, según ésta fue definida en Jomtien) sino apenas “educación primaria” (4, 5, 6 años de escolaridad). El “tercer canal”, antes pensado como un canal amplio compartido por tecnologías tradicionales y modernas, desapareció de las metas educativas y se redujo a las TIC. El discurso de la Educación en la SI en los últimos años se metió de lleno en el mundo virtual, dejando atrás la discusión acerca de las necesidades básicas de aprendizaje de la gente y adoptando como temas centrales la competitividad y las nuevas habilidades requeridas por el mercado, para “adecuarse al cambio” antes que para incidir sobre él. Es preciso ubicar espacial y temporalmente la “revolución tecnológica” y el anuncio de la SI y de la “era de la información”. Todas ellas parten de los países desarrollados, especialmente de Estados Unidos, para ser luego trasladados o bien apropiados por los “países en desarrollo” (el Sur). Emergen en la década de 1990, década que marca un giro en la historia de la humanidad, en la que se instala el modelo neoliberal en el mundo, con sus grandes paradojas: revolución tecnológica con creciente exclusión social, globalización con mayor localización, concentración del poder político y económico en pocas manos junto con expansión y articulación también global de la protesta social y los movimientos sociales. En buena medida inspirada por el alargamiento de la vida y por la expansión de las TIC, en la década de 1990 resurge la vieja utopía del “aprendizaje a lo largo de toda la vida”, planteada como el paradigma que deberá orientar los sistemas de educación, capacitación e investigación y permitirá avizorar la “escuela del futuro” (Delors et.al. 1996; Comisión de las Comunidades Europeas, 2000). De este contexto y momento, cruzados por poderosos intereses y conflictos, surgen visiones muy distintas de la SI en ciernes: una SI entendida como acceso a las TIC, que aspira a reducir la “brecha digital” y lograr un mundo de “conectados” a la red, y una SI “con rostro humano” que trasciende a las TIC, comprometida con el aprendizaje a lo largo de toda la vida y con la construcción de un nuevo paradigma societal con justicia económica, equidad y bienestar para todos. Ambas visiones están en pugna y estuvieron presentes en la Cumbre Mundial sobre la Sociedad de la Información (CMSI, Ginebra 2003; Túnez 2005). A menudo, los términos sociedad y era, así como información, comunicación, conocimiento, saber, aprendizaje se utilizan de manera indistinta, sin las debidas diferenciaciones. Un caso claro es la Encuesta Internacional de Alfabetización de Adultos (International Adult Literacy Survey-IALS), que en 1997 hablaba de competencias para la “sociedad del conocimiento” y en el 2000 de competencias para la “era de la información” (OECD/Statistics Canada 1997, 2000). La CMSI oficializó el término SI, optando por hablar de sociedad y de información. No obstante, el término SI se presta a múltiples interpretaciones, es controversial e incluso abiertamente cuestionado. Una “sociedad de la informacion” que amenaza con acentuar las desigualdades El término “educación para la sociedad de la información” no tiene una definición clara o única. De hecho, no ha sido incorporado a los Glosarios de los informes mundiales sobre la educación o sobre temas vinculados a ésta. No se han establecido parámetros o indicadores para dar cuenta de su viabilidad, pertinencia y calidad. El Indice de Educación, componente del Indice de Desarrollo Humano (IDH) calculado por el PNUD, se sigue construyendo a partir de dos datos elementales - matrícula agregada de los diversos niveles educativos y tasa de alfabetización - claramente insuficientes en la actualidad para captar el perfil y los requerimientos educativos de cualquier sociedad. En el marco de la fuerte tendencia a reducir la SI a las TIC, la Educación en la SI tiende a entenderse simplemente como aprovechamiento de las TIC para fines educativo-escolares (fuente de contenidos, reforzador didáctico, individualizador de la enseñanza y el aprendizaje, ayuda para la capacitación y la labor docente, facilitador en la enseñanza a personas con necesidades educativas especiales, etc.), para usar en la escuela o para ampliar el campo de los aprendizajes fuera de ésta, para ayudar al docente o bien para sustituirlo. “Educación y TIC” o “Uso de las TIC en educación”, o “alfabetización digital”, son hoy modos concretos de referirse a esta visión de la Educación en la SI. Muchos incluso la confunden con educación virtual o electrónica (e-learning), privilegiando así el medio y los entornos, desplazando al sistema escolar como eje de la educación y los aprendizajes sistemáticos, y a menudo reforzando por esta vía la fuerte tendencia actual a la privatización de la educación. Como rasgos constitutivos de la Educación en la SI suelen mencionarse: oferta educativa flexible, diversificada, individualizada, adecuada a las necesidades de grupos y objetivos específicos. Las preocupaciones continúan centradas en torno a la oferta, las oportunidades y el acceso (a la computadora, a Internet), más que en torno a la pertinencia y calidad de contenidos y métodos, las condiciones de producción y difusión de dichos contenidos, y, en general, a la pregunta de qué información/educación y para qué (impacto social). El hardware domina sobre el software de las tecnologías y de la propia educación, la información sobre la comunicación, el conocimiento y el aprendizaje. Asimismo, prima un enfoque pasivo y reactivo frente a las TIC - vistas como herramientas capaces de difundir información- antes que un enfoque activo y proactivo que ve a los sujetos no únicamente como consumidores sino también y fundamentalmente como creadores de información y conocimiento. De las primeras redes telemáticas (años 80), empeñadas en conectar escuelas entre sí a nivel nacional e internacional, hemos pasado a macropolíticas y proyectos que se proponen instalar computadoras en cada escuela y, más ambiciosos aún, a hacer realidad el aprendizaje personalizado y a lo largo de toda la vida, entre otros con ayuda de artefactos manuales que caben en la palma de la mano y que cada persona puede llevar consigo. Nunca estuvo tan cerca y a la vez tan lejos, en efecto, la posibilidad del aprendizaje permanente: cerca para la minoría que puede hoy acceder a estas y otras vías de aprendizaje; muy lejos para la inmensa mayoría de la humanidad, para los pobres, para las personas analfabetas (más de 900 millones en el mundo) y para los que viven con menos de 1 dólar por día (1.200 millones de indigentes), para quienes se prescribe hoy cuatro años de escuela primaria, a cursarse dentro de la llamada “edad escolar”. Concretamente, esto es lo que proponen hoy para la educación los Objetivos de Desarrollo del Milenio (2000-2015) - adoptados acríticamente por la CMSI - junto con la igualdad de sexo en términos de acceso a la educación primaria y secundaria, sin ninguna meta específica referida al analfabetismo adulto. Estamos pues participando de una curiosa era de la información, en la que el derecho a la educación se achica, mientras se agranda la brecha económica y social entre el Norte y el Sur, y entre pobres y ricos. Algunos nudos criticos para la reflexion y el debate Enunciamos aquí algunos problemas y dilemas (de orden conceptual, político, social, ético y pedagógico) vinculados a la SI y a la Educación en la SI en ese marco. La educación en la sociedad de la información es un enunciado problemático, difícil de resignificar, atrapado en dos términos: educación (cuando lo que se busca el aprendizaje, el aprender a aprender) e información (cuando el objetivo es trascender el dato, conocer, comprender, aprender, crear). Indiferenciación entre información y conocimiento, entre SI y SC, y uso de ambos como si fuesen intercambiables, con acento sobre la información más que sobre la comunicación. Indiferenciación entre información y educación, capacitación y formación, educación y aprendizaje. De estas indiferenciaciones y simplificaciones surgen atribuciones a las TIC que no corresponden y aún pocas exploraciones sistemáticas acerca del potencial informativo, comunicacional y propiamente educativo/formativo de las TIC y sus variados usos. Las modernas TIC colocadas en el centro de la información y la comunicación, desplazando a las TIC tradicionales y a instituciones claves como la familia, la comunidad, el sistema escolar, los medios masivos de comunicación, la biblioteca, el lugar de trabajo, etc. Las TIC (y las propias nociones de información y comunicación) reducidas a computadora e Internet. Además, el apelativo de “modernas” para calificar a las TIC es relativo; hay otras tecnologías modernas, otras lo fueron antes y éstas dejarán de serlo pronto. Las TIC entre la resistencia y la fascinación, con la fascinación ganando la batalla. “Tener computadora y hablar inglés” han pasado a ser expectativas y falsos indicadores de calidad en el sistema escolar, público y privado, y en muchas ofertas educativas no-formales. Entre la domesticación y el empoderamiento: el doble filo de las TIC, que se prestan tanto para la globalización del modelo neoliberal como para la globalización de la protesta, la solidaridad y la construcción de otro mundo posible (Foro Social Mundial). “Reducir la brecha digital” planteada como un objetivo en sí mismo, sin atención a las brechas estructurales (políticas, económicas y sociales, entre el Norte y el Sur, y dentro de cada país) que la sustentan. Poderosos intereses y réditos financieros y políticos detrás de la carrera por las TIC quedan ocultos tras la retórica de la SI. El campo educativo se ha convertido en mercado privilegiado, disputado desde la política y desde la empresa privada y las grandes corporaciones multinacionales. Tensión entre lo local, lo nacional y lo global, con una fuerte tendencia fagocitadora de los poderes y las industrias culturales globales, y el avance de la inculturación, la homogenización y el pensamiento único. Grandes expectativas puestas sobre las TIC como artífices de la esperada revolución educativa, desviando la atención y los recursos de las condiciones esenciales y los factores estructurales que condicionan la oferta y la demanda educativa: el modelo económico, las políticas sociales, la deuda externa, la cooperación internacional, la cuestión docente. Una mala escuela con computadora sigue siendo una mala escuela. La SI y el énfasis en la información contribuyen a reforzar, antes que a evitar, problemas de viejo arrastre de la educación y los sistemas escolares, como la memorización, el enciclopedismo, el aprendizaje sin comprensión, las jerarquías, asimetrías y roles fijos entre emisores-docentes y receptoresalumnos. La “educación bancaria” ha salido del aula de clases y se ha extendido a escala planetaria. Reiteración de los errores, desestimando las lecciones aprendidas. Países y agencias internacionales reiteran los mismos problemas y errores en el diseño y ejecución de políticas y proyectos vinculados a las TIC y la educación. Dobles discursos y agendas duales para el Norte y para el Sur. En plena emergencia de la SI, el Norte adopta para sí el aprendizaje a lo largo de toda la vida y prescribe para el Sur cuatro años de escolaridad, pensar globalmente y actuar localmente. La “ayuda oficial para el desarrollo”, ni por su volumen ni por sus condicionalidades, no soluciona un problema histórico de asimetría, inequidad y creciente endeudamiento externo. Hacia una sociedad del aprendizaje para todos Partimos de constatar que la SI es un proceso en marcha, antes que una realidad dada, y que la verdadera aspiración es construir sociedades que aprenden, sociedades del aprendizaje. En esa ruta, una educación en y para la sociedad de la información debería ser una educación que: Asegura la alfabetización universal y una formación básica, relevante y de calidad, a toda la población, en los países del Norte y en los del Sur. Promueve y busca articular los aprendizajes dentro y fuera del sistema escolar, en la educación formal, no-formal e informal, en la familia, en la comunidad, en los espacios de trabajo, de producción, de creación y recreación, de participación social, etc. Aprovecha todas las herramientas y tecnologías disponibles - no sólo las TIC en el marco de una estrategia integral de comunicación y aprendizaje Enseña a buscar y aprovechar selectiva y críticamente la información y el conocimiento disponibles; a identificar, producir y difundir información, conocimientos y saberes; a desarrollar el pensamiento autónomo y el pensamiento complejo; a participar activamente en la acción social transformadora y superadora de la propia realidad, a su vez fuente y proceso de conocimiento y aprendizaje. Defiende y encarna en su propia práctica el derecho a la educación entendida fundamentalmente como derecho de todos y todas a aprender, a aprender a aprender, y a aprender a lo largo de toda la vida. Fuentes y referencias Ballantyne, Peter. 2002. Collecting and Propagating Local Development Content. Synthesis and Conclusions. Research Report, Nº7, May 2002. International Institute for Communication and Development (IICD in collaboration with the Tanzania Commission for Science and Technology. Funded by the UK Department for International Cooperation (DFID). London. http://portal.unesco.org/ci/en/file... content.pdf Barbero, Jesús Martín. 2004. “Metáforas de la experiencia social”, en: Grimson, Alejandro (comp.), La cultura en las crisis latinoamericanas. Buenos Aires: CLACSO Libros, 2004. Cabrera Almenara, Julio, “Nuevas tecnologías, comunicación y educación”, en: Edutec, Revista Electrónica de Tecnología Educativa, Nº 3, sep. 1996. http://www.uib.es/depart/gte/edutec... Castells, Manuel. 1998. La era de la información. Economía, Sociedad y Cultura, 3 volúmenes. Madrid: Alianza Editorial. Capurro, Rafael. 1989. “Towards an Information Ecology”. Contribution to the NORDINFO International Seminar “Information and Quality”, Royal School of Librarianship, Copenhagen, 23-25 August 1989. http://www.capurro.de/nordinf.htm Center for International Development at the University of Harvard. 2002. The Global Information Technology Report 2001-2002: Readiness for the Networked World. http://www.cid.harvard.edu/cr/gitrr... CIRET -International Center for Transdisciplinary Research, Moral Project (1987), adopted at the I World Congress of Transdisciplinarity, Portugal, Nov. 2-6, 1994. http://perso.club-internet.fr/nicol... Comisión de las Comunidades Europeas. 2000. Memorándum sobre el Aprendizaje Permanente. Bruselas: Documento de trabajo de los Servicios de la Comisión. Corea, Cristina y Lewkowicz, Ignacio. 2004. Pedagogía del aburrido. Escuelas destituidas, familias perplejas. Buenos Aires: Paidós Educador. Council of the European Union. 2001. Report from the Education Council to the European Council “The concrete future objectives of education and training systems”. Brussels, 14 February 2001. Cumbre Mundial sobre la Sociedad de la Información (CMSI), Declaración de Principios, “Construir la sociedad de la información: Un desafío mundial para el nuevo milenio”, Documento WSIS-03/Geneva/Doc/4-S, 12 diciembre 2003. http://www.psi.gov.ar/Documentos/De... Dede, Chris (comp.) 2000. Aprendiendo con tecnología. Buenos Aires: Paidós. Delors, Jacques et. al. 1996. La educación encierra un tesoro. Informe a la UNESCO de la Comisión Internacional sobre la educación para el siglo XXI. Madrid: Santillana, Ediciones UNESCO. De Moura Castro, Claudio (IDB). “Education in the Information Age: Promises and Frustrations”, Techknowlogia, Vol. 1, Nº 2, Nov.-Dec. 1999. http://www.techknowlogia.org/TKL_ac... Education for All - EFA Forum. 2000. The Dakar Framework for Action, World Education Forum (Dakar, 26-28 April, 2000). Paris: UNESCO. Faure, Edgar et.al. 1972. Learning to Be. The World of Education Today and Tomorrow. Paris: UNESCO. García Canclini, Néstor. 2004. Diferentes, desiguales y desconectados. Mapas de la interculturalidad. Barcelona: Gedisa Editorial. Guttman, Cynthia. 2003. Education in and for the Information Society. Paris: UNESCO-WSIS Publication Series. http://portal.unesco.org/ci/en/file... Haddad, Wadi, D. “If Technology is the Solution, Where is the Problem?”, in: Techknowlogia, Vol. 1, Nº 2, Nov.-Dec. 1999. http://www.techknowlogia.org/TKL_ac... Katz, Jorge y Hilbert, Martin. 2003. Los caminos hacia una sociedad de la información en América Latina y el Caribe. Santiago: CEPAL. http://www.eclac.cl/cgi-bin/getProd... tpl/top-bottom.xslt Mattelart, Armand. 2004. “La sociedad de la información: La retórica en acción”, en: América Latina en Movimiento, No. 385-386, edición especial, Foro Social de las Américas. Quito: ALAI. http://alainet.org/active/show_text... Morin, Edgar. 1999. Los siete saberes necesarios para la educación del futuro. París: UNESCO. Morin, Edgar. 2004. Introducción al pensamiento complejo. México: Gedisa. OECD. 1999. Education Policy Analysis 1999 Edition, “ICT in Education: Trends, Investment, Access and Use”. http://www.oecd.org/topic/0,2686,en... OECD/ Statistics Canada. 1997. Second Report of the International Adult Literacy Survey (IALS). Literacy Skills for the Knowledge Society. Paris. OECD/ Statistics Canada. 2000. Literacy in the Information Age. Final Report of the International Adult Literacy Survey -IALS. Paris. http://www1.oecd.org/publications/e... PNUD. 2001. Informe sobre el Desarrollo Humano 2001 “Poner el adelanto tecnológico al servicio del Desarrollo Humano.” Nueva York. http://www.undp.org/hdr2001/spanish... Torres, R.M. 1998. “Learning: Twelve Common Wrong Assumptions and their Implications”. Paper presented at UNICEF Global Seminar “Basic Education for the 21st Century”, Innocenti Center, Florence, 25 October-3 November 1998. Torres, R.M. 2001a. “Knowledge-based aid: Do we need it, do we want it”?, in: Gmelin, W.; King, K and McGrath, S. (eds.) Knowledge, Research and International Cooperation. UK: University of Edinburg. http://www.redistic.org/index.htm? body=proyectosj Torres, R.M. 2001b. Comunidad de Aprendizaje: Repensando la educación desde el desarrollo local y desde el aprendizaje. Ponencia presentada en el Simposio Internacional sobre Comunidades de Aprendizaje, Barcelona Forum, Barcelona, 56 Octubre 2001 http://www.immagen.com/fronesis/rmt... Torres, R.M. 2001c. “La profesión docente en la era de la informática y la lucha contra la pobreza”, en: Análisis de Prospectivas de la Educación en América Latina y el Caribe. Santiago: UNESCO-OREALC. http://www.unesco.cl/medios/bibliot... Torres, R.M. 2002. “Lifelong Learning in the North, Education for All in the South?”, in: Carol Medel-Nuevo (editor), Integrating Lifelong Learning Perspectives. Hamburg: UIE-UNESCO. http://www.unesco.org/education/uie... Torres, R.M. 2004. Lifelong Learning in the South: Critical Issues and Opportunities for Adult Education. Sida Studies 11. Stockholm: Sida. http://www.sida.se/content/1/c6/03/... UNESCO. 1998. Educating for a Sustainable Future: A Transdiciplinary Vision for Concerted Action. Paris. UNESCO. 2000. Informe Final. Foro Mundial sobre la Educación (Dakar, 26-28 Abril, 2000). París. UNESCO. 2002. Building Knowledge Societies, 164th session of the Executive Board, Paris, 25 April 2002 http://portal.unesco.org/ci/en/ev.p... UNESCO. 2004a. World Report ‘Building Knowledge Societies’ 2004. Paris. http://unesdoc.unesco.org/images/00... UNICEF. 1990. Children and Development in the 1990s: A UNICEF Sourcebook, on the ocasión of the World Summit for Children. New York, 26-30 Sep. 1990. Visser, Jan. 2004. “The role of human learning in the information age: Challenges and opportunities for Latin America and the rest of us”, in: Almeida, V.; BaezaYates, R.; Camarena, M.I. (Eds.), The role of humanity in the information age: An Ibero-American perspective. (in press). http://www.learndev.org/dl/HumanLea... WCEFA (World Conference on Education for All/ Inter-agency Commission). 1990. World Declaration on Education for All and Framework for Action to Meet Basic Learning Needs (Jomtien, Thailand, 5-9 March 1990). New York-Paris. Sitios en la web @LIS: Alianza para la Sociedad de la Información entre Europa y América Latina http://www.alis-online.org Commonwealth of Learning http://www.col.org/ Cumbre Mundial de la Sociedad de la Información (CMSI) http://www.itu.int/wsis/index-es.html EduTec - Revista Electrónica de Tecnología Educativa http://www.uib.es/depart/gte/edutec... EDUTEKA - Tecnologías de Información y Comunicaciones para la Enseñanza Básica y Media http://www.eduteka.org/ Europe’s Information Society http://europa.eu.int/information_so... Europe: Education and training for the knowledge society http://europa.eu.int/information_so... European Union (EU) documents on education and training http://elearningeuropa.info/ecb.php... European Commission / E-learning initiative http://europa.eu.int/comm/education... E-learning Europe http://elearningeuropa.info/ Eurydice/LifelongLearning http://www.eurydice.org/LifeLongLea... Finland - The National Strategy for Education, Training and Research for the Information Society (1995) http://www.minedu.fi/julkaisut/info... Harvard’s Handheld Devices -WHD- for Ubiquous Learning Project http://gseacademic.harvard.edu/ hdul/ iEARN - A Pioneer and Leader in the Field of Educational Telecommunications http://www.iearn.org/about/about_hi... Instituto Fronesis http://www.fronesis.org Learning Development Institute http://www.learndev.org/ Mistica - Ciberoteca http://www.funredes.org/mistica/cas... OECD/Education http://www.oecd.org/topic/0,2686,en... OEI-Biblioteca Digital, Educación y Nuevas Tecnologías http://www.oei.es/mapa.htm OEI-Programas Educación y Nuevas Tecnologías http://www.oei.es/nuevas_tecnologia... SITE-Society for Information Technology and Teacher Education http://site.aace.org/ Techknowlogia http://www.techknowlogia.org/ UNESCO-Education for All (EFA) website http://www.unesco.org/education/efa... UNESCO-Learning without Frontiers: Constructing Open Learning Communities for Lifelong Learning http://www.unesco.org/education/lwf/ Al momento de su acceso (marzo 2011) en el website del libro no hay versión en español de este artículo. Hay traducciones al francés y al portugués Derechos humanos Rikke Frank Jørgensen The concept of human rights in the information society involve comprehension of two key phrases; human rights and the information society. Linking a legal tradition to a vaguely defined policy concept Human rights draw on deep and widespread historical roots since practically all cultures, religions, and philosophies include human rights principles, though they also contain practices which are incompatible with human rights. However, one important date for placing it on the international agenda is December 10, 1948 when the Universal Declaration of Human Rights (UDHR) was adopted at the UN General Assembly in the aftermath of the Second World War to ensure that such horror would never again occur. The UDHR has since been developed into a large body of international conventions and declarations, some of them legally binding, others political statements, which UN member states commit to follow in their national legislation and practice. [1] In the following, human rights are referred to as defined in the Universal Declaration of Human Rights, the International Covenant on Civil and Political Rights, and the International Covenant on Economic, Social and Cultural Rights, as civil and political rights of citizens, as well as their economic, cultural, and social rights. At the 1993 UN World Conference on Human Rights held in Vienna, the international community reaffirmed the four principles that lie at the heart of the human rights regime: human rights are universal (rights belong to all persons), indivisible (rights cannot be separated from one another), interrelated (rights impact upon one another) and interdependent (a right cannot be fully achieved without fulfilment of all other rights) [2]. The term information society has academic roots dating back to the mid-seventies [3] but was politically revitalized by the American and European project to privatize and liberalize the telecommunication sector globally. In 1994, Al Gore as the US Vice President, announced the creation of “the Global Information Infrastructure”, echoed at the European level in a number of white papers and reports in the mid¬nineties, the most famous of which was the Report of the Bangemann High Level Expert Group in 1994. In official rhetoric the many political, economic, scientific, and social changes related to globalization and communication infrastructure soon became “the information society” [4]. At civil society level, American and European NGOs in particular have since the early nineties focused on specific human rights challenges within a digital environment, especially in relation to the protection of privacy and freedom of expression. This initial US / European lead has today turned into an increasingly large number of civil society groups from all over the world, focusing on analysis and policy campaigns for the defense of human rights standards in a digital context. [5] One of the largest networks of these groups is the Global Internet Liberty Campaign (GILC), an umbrella organization with currently more than 60 member organizations [6]. However, long before the development of the cyber rights community with its more specific Internet focus, a number of social movements had raised issues of information and media ownership and access to communication. [7] When the World Summit of the Information Society (WSIS) process took off in 2002, one of its important contributions was to create and facilitate a global space where these very diverse civil society groups and movements met and were forced to interact since they were included in a formal UN process as one voice; the voice of “civil society” [8]. Both in terms of mutual ¬learning and networking on a global scale, and in terms of ¬putting human rights on the information society agenda [9], the WSIS process played a significant role. Dignity, liberty, and the equity of all human beings No single definition of the rather broad concept of “human rights in the information society” exists, although many documents praise human rights as the foundation for the information age. The concept has at least two connotations. One relates to the ways in which technology can be used as an enabler for human rights workers. Countless examples exist showing how Internet has facilitated communication from suppressed groups, have enabled human rights activists to report on violations, to campaign across borders and to reach global information, and support to strengthen their case [10]. The other use of the concept, which is the main focus here, relates to the challenge of protecting and enforcing human rights standards at a point in time when new communicative means are essentially changing the way we live, work, and develop. Human rights are subject to dynamic interpretation, and part of their essence is their recognition as standards in a given context at a given time. This requires analysis as to how human rights are affected by current developments, how the core of a given right is potentially threatened, how it can be enhanced, and - crucially - to what extent the existing system of protection is adequate and effective given the realities of new technological developments. The international body of human rights is thus in perpetual evolution to dismiss new threats as well as to encompass new opportunities for their extension. Historically this evolution has always been the result of social struggles led by different groups in specific historical junctures. The relatively recent codification of women’s rights and the rights of indigenous peoples are a case in point. Civil Society representatives attending the WSIS have stressed that to apply the human rights framework to the information society implies taking dignity, liberty and the equity of all human beings as the starting point of reference rather than technological considerations. It entails the task of addressing the basic values we wish to guide the direction of the information society, and to ensure that these standards continue to be upheld. One central human rights challenge to the many societal changes, which we call the information society, is the protection of human dignity, liberty, and equity as technology becomes more invasive, as measures for information control, ownership and surveillance stronger, and inequality more visible. [11] Several trends that characterize the development of the information society represent challenges to, and in many cases serious dangers for, a human rightsbased information society. These include extended regimes for information ownership and management (i.e. copyright and patent regulation, trade agreements, digital rights management systems), rapid advances in surveillance, profiling, and retention of personal data (i.e. counter terror legislation, radio frequency identification devices, IPV6, etc.) [12], and new means for censoring and blocking information (i.e. state firewalls and filters, ISP licensing), to mention but a few of the current developments [13]. The Human Rights framework is in perpetual evolution The acknowledgment of human rights as the foundation for the information society was after many negotiations included in the official outcome from the WSIS Geneva Summit in 2003. The Declaration of Principles [14] in Article One speaks of an information society “respecting fully and upholding the Universal Declaration of Human Rights”. The vision articulated by the Declaration also stresses the four principles of universality, indivisibility, interrelated, interdependency as reaffirmed in the Vienna Declaration and Programme of Action. In other words, human rights in the information society are not only about civil and political rights, such as freedom of expression, freedom of assembly, the right to a fair trial or the right to privacy, but equally include economic, social, and cultural rights, such as the right to an adequate standard of living, to education, to health, to benefit from scientific progress, and so on. This is important to bear in mind, since some civil society groups tend to see human rights as something secondary to issues of development, rather than the normative foundation for any society independently of its level of development. At the same time, some civil society organizations, especially from northern countries, have a narrow understanding of human rights, and focus primarily on civil and political rights - or only freedom of expression [15]. The Geneva Declaration of Principles affirms that the information society must not result in discrimination or deprivation of human rights and that states are obliged to promote and respects all human rights within this context. [16] However, as stated by the then Acting UN High Commissioner for Human Rights, there is yet no clear response on how to meet this challenge: “We seek to build an Information Society where people and individuals are placed at its centre, where human dignity is firmly upheld and where human rights are recognized as its guiding principles. How can we best ensure that these principles are reflected in an Information Society? How can we make best use of information and communication technologies, which are the vital tools and building blocks in this endeavor? These questions await our answer, our commitment and our concerted action” [17]. From a legal perspective, many of the regulatory challenges relate to the transnational nature of the Internet. International agreements have traditionally been based on the premise of territorial jurisdiction, and Internet as a global communication space challenges this premise. One of the current policy debates related to the global nature of Internet concerns human rights and Internet governance, and to what extent the current mechanisms for Internet governance have an impact on human rights. Many civil society groups argue that human right issues of privacy, freedom of expression, access to information, and the public domain of knowledge are at stake in the existing governance structures. Furthermore, there is the challenge of reforming the existing governing structures, since the current forum for domain name management is a private party dominated by a limited number of countries and based on a contract with a single government. Here the human rights stance has been that the result of the ongoing negotiations must ensure that the future mechanisms for Internet governance are human rights compliant, both in their composition and governing structures and through regular monitoring and assessment of their decisions. “It is a state responsibility to ensure that Internet governance mechanisms are compliant with human right standards, that there are means to enforce them, and that governments can be held accountable for human rights violations, including before international courts. Internet governance mechanisms can and should further human rights by ensuring an enabling environment that protects and enforces human rights standards and democratic principles of inclusiveness, transparency, checks and balances, and the rule of law”[18]. At present, there seem to be a growing acceptance of Internet as a global commons, which implies effective access for all countries to participate in decisions regarding enjoyment of this common good. Another debate concerns the global CRIS (Communication Rights in the Information Society) campaign. The CRIS campaign has raised issues of knowledge ownership and media diversity within the information society agenda, and demands the recognition of a new human right; the right to communicate. In response to this, a number of human rights groups have argued that these issues can and should be addressed within the existing human rights framework. The right to communicate should not be conceived as a new and independent right but rather as an umbrella concept; communication rights, encompassing the effective implementation of a group of related existing rights. [19] A continuous and final battlefield to be mentioned is the struggle to ensure that working for and with human rights in the information society does not limit itself solely to the affirmation of already set human rights standards, but includes the effective protection and implementation of these rights. With regard to technical developments entailing privacy threats, these call for a tight legal and political framing, which must be built upstream through privacy impact assessments, and not only once the risks have manifested themselves in our everyday life. It is urgent that we continuously address the challenge of bringing people and countries closer to the standards outlined in the human rights treaties, and evaluate their realization through benchmarks and indicators for national enforcement and compliance. So far the WSIS process has shown little political willingness to address this challenge. Delito informático Stephanie Perrin El término delito informático se acuñó a finales de los años noventa, a medida que Internet se expandió por toda Norteamérica. Después de una reunión en Lyón, Francia, se fundó un subgrupo del grupo de naciones que conforman el denominado “G8” con el objetivo de estudiar los problemas emergentes de criminalidad que eran propiciados por o que migraron a Internet. El “Grupo de Lyón” utilizó el término para describir, de forma muy imprecisa, todos los tipos de delitos perpetrados en la red o en las nuevas redes de telecomunicaciones que tuvieran un rápido descenso en los costos. Al mismo tiempo, y guiado por los participantes en el grupo de Lyón, el Consejo Europeo comenzó a diseñar el Tratado sobre Delito Informático [1]. Este tratado, que fuera presentado a la opinión pública por primera vez en el año 2000, incorporó una nueva gama de técnicas de vigilancia que las agencias encargadas de la aplicación de la ley consideraban necesarias para combatir el “delito informático”. ¿Cómo se definió el delito informático? La versión final de ese tratado, aprobada en noviembre de 2001 después de los acontecimientos del 11 de septiembre, no definió el término. Es un término muy amplio referido a los problemas que aumentaron el poder informático, abarataron las comunicaciones y provocaron que haya surgido el fenómeno de Internet para las agencias policiales y de inteligencia. El tratado describe de la siguiente manera las diferentes disposiciones y áreas temáticas en las que se requiere una nueva legislación: Título 1 - Delitos contra la confidencialidad, integridad y disponibilidad de los datos y sistemas informáticos. Título 2 - Delitos relacionados con las computadoras [falsificación y fraude]. Título 3 - Delitos relacionados con el contenido [pornografía]. Título 4 - Delitos relacionados con la violación del derecho de autor y los derechos asociados. Título 5 - Responsabilidades secundarias y sanciones [cooperación delictiva, responsabilidad empresarial]. Delito informático: la caja de Pandora Las disposiciones relativas a los delitos son en realidad muy concisas; la mayor parte del tratado se refiere al derecho procesal y la cooperación internacional. El proceso judicial exitoso exigía nuevas técnicas para recoger evidencias, asegurar su integridad y compartirlas a escala internacional. Las órdenes expeditas de preservación de los datos, las garantías electrónicas, la captura de datos en tiempo real y la retención de los datos del tráfico traían consigo una intrusión en las libertades civiles. El aumento de la dependencia de los tratados mutuos de asistencia legal, incluso en los casos en que no existía un doble carácter delictivo, destapó una Caja de Pandora de cargos criminales potenciales que yacían en los regímenes de todo el mundo. Aunque el Tratado sobre Delito Informático ha enunciado claramente los problemas inherentes a la investigación internacional del delito, no ha abordado los métodos para mantener la privacidad y los derechos humanos. Al principio hubo una gran confusión. El delito informático se aplicaba a nuevos tipos de criminalidad, tales como la pornografía cibernética o la distribución de imágenes pornográficas que violaban algunas (pero no todas) leyes de los países con respecto a la pornografía inaceptable o al material utilizado para explotar. El hecho de que Internet no tenga fronteras, facilitó a las personas la distribución de materiales a escala internacional, en ocasiones sin dejar rastros sobre su autor. Una nueva forma de delito fue también la penetración ilegal en los sistemas computarizados o “piratería informática”, que en muchos países aún no constituía un delito penal. Uno de los propósitos del Tratado sobre Delito Informático fue establecer y acordar las disposiciones que debían aparecer en las legislaciones de los signatarios con el objetivo de luchar contra la nueva actividad delictiva con más coordinación. Otro tema fueron los juegos de azar en línea; estaban surgiendo pistas de carreras virtuales en Internet, y a pesar de que los países variaron considerablemente su enfoque con respecto a los juegos de azar, muchos países desarrollados contaban con las ganancias provenientes de estos juegos para los presupuestos del gobierno o las economías basadas en el turismo; para ellos, el surgimiento de competidores virtuales que operaban desde paraísos fiscales constituyó una gran preocupación. Retención de datos, criptografía: dos temas fundamentales de la seguridad que están en peligro Antes de que se presentara a la opinión pública el Tratado sobre Delito Informático, los libertarios civiles del mundo estaban ocupados en combatir diferentes cambios domésticos destinados a introducir la retención obligatoria de datos o el almacenamiento de los ficheros de registros de las telecomunicaciones y del tráfico en Internet con el propósito de investigar el delito. La retención de datos se consideraba parte de un paquete de controles, que el FBI había introducido por primera vez alrededor del año noventa y dos, necesario para combatir el delito en la “autopista de la información” como lo denominamos en los primeros años de Internet. Durante los años noventa, los activistas de Internet, los expertos técnicos y las empresas privadas lograron aunarse en la lucha contra la imposición de controles sobre la criptografía, incluyendo los proyectos de depósitos de clave, en los que el gobierno conservaría una copia de todas las claves criptográficas con el objetivo de investigar con mayor facilidad la actividad y la evidencia delictiva. El más famoso de estos fue el “Clipper chip” estadounidense, un proyecto que no solo proponía que el gobierno controlara las claves de codificación, sino que desarrolló un algoritmo cerrado o propietario que ningún experto tenía la autorización de analizar ni de evaluar. La seguridad es una carrera armamentista, en la que los algoritmos y los controles de seguridad necesarios para su exitosa puesta en funcionamiento son atacados tan pronto se presentan, de modo que los únicas medidas de seguridad en que confían los expertos son los sistemas que han sido expuestos a ataques y han sobrevivido la prueba. Originalmente, la criptografía era dominio de los expertos militares y de seguridad nacional, pero cada vez más los civiles fueron estudiándola y pasó a ser de uso público. En 1991, Phil Zimmerman, pacifista y experto en criptografía, presentó en “Usenet” un programa criptográfico denominado Pretty Good Privacy o PGP, con lo que hizo que potencialmente estuviera disponible en los países donde los Estados Unidos se negaban a exportar la criptografía fuerte. El gobierno de los Estados Unidos inició una investigación del Gran Jurado que duró tres años, hasta que se retiró sin cargos criminales en enero de 1996. Phil se convirtió en un héroe en la comunidad “Net”, puesto que había contribuido a que los disidentes políticos en países como Letonia codificaran sus comunicaciones y evitaran la vigilancia del Estado, pero durante un período de tres años enfrentó una posible condena por la exportación de criptografía. Este enfrentamiento en la exportación de criptografía continuó durante varios años, ya que era una clásica situación en la que nadie gana: Si bien era cierto que, por ejemplo, un delito cometido por personal administrativo podía ser encubierto completamente por una persona que utilizara una criptografía indescifrable y fuerte, también era cierto que una compañía necesitaba protegerse del espionaje industrial y de la manipulación indebida delictiva con sus propios registros mediante el uso de la misma criptografía fuerte. Al final, el “Clipper chip” dejó de ser utilizado, y Estados Unidos y los países miembros del G8 suavizaron sus controles sobre la criptografía, casi al mismo tiempo en que surgía el Tratado sobre Delito Informático. No obstante, durante este tiempo el clima entre los activistas de Internet y los expertos estaba contaminado por la desconfianza, debido a las acciones de los gobiernos que intentaban bloquear la privacidad y la codificación en la red. Se había iniciado una importante lucha por el poder entre el Estado, que deseaba leer todo lo que se transmitiera por las redes de telecomunicaciones, especialmente Internet, y los individuos (representados por los grupos de libertades civiles), que no consideraban que el gobierno realmente los estuviera protegiendo, sino que por el contrario tomaba el poder al comienzo de la nueva era de la información y creaba sistemas de vigilancia que proliferarían y amenazarían nuestras libertades. El delito informático no es virtual Entonces, ¿qué es el delito informático? Primero, ¿qué es el ciberespacio? El término lo acuño el escritor de ciencia ficción William Gibson en el año 1982 y fue aplicado a Internet por Howard Rheingold, de modo que se extendió como denominación para esta nueva infraestructura de comunicaciones. Pero a veces olvidamos que en realidad no existe. Lo que existe es una red y muchos servidores y equipos. Las comunicaciones por Internet parecen ser efímeras y que se evaporan y lo que funciona en las mentes de las personas es la gestalt. Quizás sea por la fragilidad de la relación propia del individuo promedio con su computadora y los programas de correo electrónico. ¿Quién no ha perdido un documento al olvidar guardarlo o ha desaparecido su agenda o su correo electrónico? De hecho, un buen investigador con herramientas forenses puede encontrar y resucitar prácticamente todo, porque a diferencia del mundo analógico, el mundo digital deja tras de sí la información de cada bit y de cada byte que se envía. Dichas herramientas y habilidades no se encuentran disponibles para el consumidor promedio, por lo que parece apropiado el concepto de ciberespacio, un tipo de hiperespacio mágico a partir del cual los datos entran y salen. Cuando se iniciaron los primeros esfuerzos para la elaboración del Tratado sobre Delito Informático, la mayoría de las agencias encargadas de la aplicación de la ley estaba retrasada desde el punto de vista tecnológico. No sabían cómo investigar, cómo buscar evidencias informáticas sin contaminarlas, cómo conservar los datos para que en caso de que el propietario hubiese enviado un programa asesino poder destruirlo, cómo rastrear a los autores de un mensaje, particularmente cuando están codificados o se utilizan fuentes anónimas. Estos no son problemas triviales, y parte del trabajo inicial de las agencias encargadas de aplicar la ley estuvo dirigido a desacelerar el proceso y prestar atención a sus propias necesidades de recursos para atacar un nuevo problema. Debido a que generalmente es más fácil obtener nuevos recursos para luchar contra un problema nuevo que mejorar los recursos antiguos, no resulta sorprendente que se acuñaran nuevos términos. Sin embargo, no está claro que el término “delito informático” sea un término útil y puede ser totalmente malinterpretado. El delito ocurre en el mundo real y por lo general involucra a personas y dinero reales. Es importante centrarse más en ese aspecto del problema que en otros aspectos más efímeros sobre cómo se envían las comunicaciones. Existen tres aspectos del “delito informático” Existe el nuevo delito de penetración del código, invasión o espionaje dentro de los sistemas informáticos de otras personas u organizaciones. Las opiniones diferían en cuanto a si el hecho de solo mirar constituía un delito, especialmente debido a que los primeros hackers [2] detectaban a menudo fisuras en la seguridad y se consideraban ciudadanos honestos al informarlas. Naturalmente, penetrar un sistema con intenciones delictivas es otra cosa. En segundo lugar, existen situaciones en las que el delito es viejo, pero el sistema es nuevo, como es el caso de las estafas fraudulentas por Internet. El fraude comercial ha existido durante miles de años, las estafas telefónicas han existido durante décadas y ahora tenemos las estafas por Internet. Esto también es válido para la pornografía y el fraude al derecho de autor. El tercer elemento es el referido a la investigación, donde la computadora sirve como depósito de evidencias, necesarias para el procesamiento judicial exitoso de cualquier delito que se cometa. Lo que solía archivarse en expedientes de papel, prácticamente ya no se archiva de otra forma que no sea la digital y puede ser destruido y decodificado a distancia. Un perro de caza con un buen olfato da la impresión de habitar en un universo paralelo... puede vivir con nosotros y caminar por la misma calle, pero experimenta algo totalmente diferente a lo que experimenta el ser humano, un mundo rico en información a escala química. En la actualidad, el hombre ha construido un mundo donde los chips de silicio generan información nueva, la envían alrededor del mundo en secuencias digitales electrónicas y no somos capaces de detectarlas sin la ayuda de las computadoras. No obstante, este mundo digital paralelo existe y los bits digitales constituyen un nuevo tipo de evidencia. Los bits digitales también constituyen un nuevo tipo de riesgo para el individuo, porque el que sepa cómo falsificar la evidencia digital puede crear una nueva persona digital. Este es un cuarto tipo de delito, es más sutil que el resto y más conocido cuando se presenta como ladrón de identidad. Si esta tendencia persiste, el término delito informático podría ser útil para describir el delito contra la persona digital. La persona digital ¿Qué es la persona digital? ¿Es este un término útil? La expresión se ha utilizado, al menos durante la última década, para describir la impresión que una persona deja en Internet. El Dr. Roger Clarke la describió bien en el resumen de uno de los primeros artículos sobre el tema [3] La persona digital es un modelo de individuo creado mediante la recopilación, almacenamiento y análisis de los datos sobre dicha persona. Es un concepto muy útil e incluso necesario para comprender el comportamiento del nuevo mundo en red. Este artículo introduce la idea, investiga sus orígenes y proporciona ejemplos de su aplicación. Se sugiere que mediante el uso de la idea será posible o se mejorará una comprensión de muchos de los aspectos del comportamiento en la red. La persona digital es también un fenómeno potencialmente amenazante, degradante y quizás socialmente peligroso. Un área cuyos aspectos más amenazadores que requieren consideración radican en la vigilancia de datos, el monitoreo de personas a través de sus datos. La vigilancia de datos es un medio económicamente eficaz para ejercer control sobre el comportamiento de los individuos y las sociedades. Se analiza el modo en el cual la persona digital contribuye a una compresión de técnicas particulares de vigilancia de datos tales como la comparación y la caracterización por computadora y se esbozan los riegos inherentes al monitoreo de la persona digital. Actualmente hemos recorrido una distancia preocupante en el camino que señaló en su artículo, hace once años. Clarke identifica a la persona digital como un modelo, útil para entender la sombra que proyectamos en el mundo digital del ciberespacio y distinguir entre las personas pasivas, activas y autónomas. Lo define como: La persona digital es un modelo de la personalidad pública de un individuo, basado en los datos y mantenido por las transacciones y que ha sido concebido para ser utilizado en representación del individuo. Útiles como modelo para identificar a los individuos con el fin de dirigirse a ellos (por ejemplo, las direcciones de correo electrónico) o identificarlos como personas con permisos para realizar una función (pagar cuentas en línea, planificar viajes), los bits pronto desarrollan un conjunto de hábitos y una personalidad que son tan reales como el ser humano que está detrás de ellos. Actualmente, los gobiernos y los negocios se basan en ellos para “conocer a sus clientes” y se confía más en las pruebas electrónicas y la persona digital que en los propios individuos. Sin embargo, las fragilidades en la seguridad demuestran en nuestros días cuán desacertada puede estar esa confianza. Los ataques de “Phishing” [4] y “Pharming” o la suplantación ilegal de correos electrónicos o páginas Web seducen a las personas para que den información personal por Internet, y los actores fraudulentos luego utilizan esos datos para convencer a comerciantes, al gobierno o al banco de que son la persona real. En el entorno actual es aún más complejo, los ladrones colocan amalgamas de datos para crear personas ficticias pero probables. En el mundo del ciberespacio, podría existir cualquier número de estos modelos que actúan, generalmente (pero no siempre), con fines delictivos. Agentes del orden se presentan como niños en las salas de charla para atraer a posibles violadores de niños con el fin de ponerlos bajo arresto. Misteriosos compradores comprueban los servicios de atención al cliente. Los adultos en todo el mundo crean una persona en los sitios de citas por Internet, para esconder su verdadera identidad hasta que hayan alcanzado un nivel de confianza con las personas desconocidas con las que conversan. A medida que avanzamos hacia un mundo donde la vigilancia digital de los seres humanos crece exponencialmente, debemos preguntarnos hacia dónde vamos. Pronto los chips de identificación por frecuencia de radio en las ropas que usamos y los carnés de identidad que llevamos se comunicarán con el medio donde vivimos y transmisores incorporados seguirán nuestros movimientos. Si alguien falsifica correctamente esas huellas, un ser humano real podría enfrentarse en la corte a una persona digital, muy bien fabricada fuera del control del individuo en cuestión. Los intentos para relacionar esas huellas con el individuo mediante el uso de la biometría pueden resolver el problema, o en realidad pudieran empeorarlo. Los expertos en libertades civiles se preocupan acerca de la intromisión de los lectores biométricos en nuestras vidas cotidianas, al afirmar que no son confiables y producen demasiados positivos falsos y negativos falsos. Un exitoso experimento reciente para engañar a los lectores de huellas digitales mediante el levantamiento de estas y su aplicación a dedos falsos moldeados con gelatina, como los ositos de goma, ha confirmado estas sospechas, pero ha hecho poco por disminuir la introducción de sistemas [5]. En su artículo sobre la persona digital, Roger Clarke señaló el modelo jungiano del individuo, con el alma virada hacia adentro para enfrentar el inconsciente y la persona enfrentando al mundo. A medida que la persona digital crece en importancia social y económica, atrae la atención de los delincuentes. ¿Qué ocurre con el alma al enfrentar una carrera armamentista digital para controlar a la propia persona individual, en lugar de dejarla en manos del mercado o de los delincuentes? Si en realidad el individuo se ve obligado a distanciarse de su persona, solo para hacer frente a las perspectivas de la constante vigilancia y amenaza que ahora estamos soportando, esto no es buen augurio para nuestra sanidad colectiva. Derechos de la comunicación Alan Alegre Sean O’Siochru Los derechos referidos a la comunicación han sido esenciales para el concepto de los derechos humanos universales surgido a mediados del siglo XX, y para su consolidación en la Carta de las Naciones Unidas y en la Declaración Universal de los Derechos Humanos (DUDH). Pero de manera general se acredita a Jean d’Arcy el haber sido el primero en presentar explícitamente argumentos a favor de un “derecho a comunicar”. En 1969, mientras ocupaba el cargo de Director de los Servicios Radiales y Visuales en la Oficina de Información Pública de las Naciones Unidas, escribió: “Llegará el momento en que las (DUDH) tendrán que incluir un derecho más amplio que el derecho humano a la información, planteado por primera vez hace 21 años en el Artículo 19. Se trata del derecho humano a comunicar. Este es el punto de vista desde el que tendrá que verse el desarrollo futuro de las comunicaciones si se desea entenderlo completamente”. [2] Plataformas intergubernamentales: NOMIC, UNESCO y Comisión MacBride Poco después, el tema fue catapultado a los primeros planos geopolíticos. Pronto la idea de un “derecho a comunicar” se convirtió en el tema fundamental de un debate diplomático internacional que duró varios años - el debate sobre lo que se dio en llamar Nuevo Orden Mundial de la Información y la Comunicación (NOMIC). Desde la perspectiva del papel emergente de los medios y la comunicación, muchos países comenzaron a preocuparse seriamente por el impacto que tendrían en la identidad nacional, la integridad cultural y la soberanía política y económica. El NOMIC, liderado por el Movimiento de Países No Alineados (NOAL) de la ONU, se centró en: la doctrina de la libre circulación de la información, que reforzaba el dominio de los medios y del contenido de noticias occidentales; la creciente concentración de los medios y de la industria de la comunicación, lo que se traduce en una mayor posesión extranjera de los medios en los países más pequeños y más pobres; la forma en que la creciente importancia de las tecnologías controladas por Occidente para la producción y difusión de los medios era difícil de seguir por los demás. Como único organismo de las Naciones Unidas equipado para debatir de manera coherente la gama de temas surgidos, la batalla se llevaría a cabo sobre todo en la UNESCO, donde permanecería durante una década. A partir de 1973, el NOAL desarrolló un plan mucho más sofisticado para un Nuevo Orden Mundial de la Información. En la Asamblea General de la UNESCO del año 1976, se puso en evidencia el gran vacío existente entre los países miembros del NOAL y los países occidentales (EE.UU., Reino Unido y otros). Solo pudo evitarse un enfrentamiento mediante la creación de una Comisión Internacional para el Estudio de los Problemas de la Comunicación, conocida como la Comisión MacBride debido al nombre de su presidente, Seán MacBride. El informe de la Comisión de MacBride a la Asamblea General del año 1980, Muchas voces en un solo mundo, llevaba la marca distintiva de un proceso político polémico, pues eludía muchos temas y contenía numerosas advertencias; pero era abarcador (con una notable debilidad en lo referente al tema del género) y vasto, e hizo recomendaciones concretas, entre las que se incluye: “Las necesidades de comunicación en una sociedad democrática se deben resolver mediante la extensión de derechos específicos tales como el derecho a estar informado, el derecho a informar, el derecho a la privacidad, el derecho a participar en la comunicación pública - todos ellos son elementos de un nuevo concepto, el derecho a comunicar. En el desarrollo de lo que pudiera llamarse una nueva era de los derechos sociales, sugerimos que se investiguen más a fondo todas las implicaciones del derecho a comunicar.” [3] Por primera vez, el NOMIC tenía un marco general, una justificación detallada, un sistema de propuestas y un concepto unificador - el “derecho a comunicar”. Finalmente, los resultados de la Comisión fueron aprobados - un momento definitorio para el NOMIC, pero que duró poco. El acuerdo era muy débil; en lugar de unir a ambas partes, el proceso simplemente puso al descubierto el vacío existente entre ellas y un atrincheramiento en sus posiciones, especialmente de los gobiernos occidentales envueltos en la geopolítica de la guerra fría. EE.UU. lideró una “contraofensiva” en la UNESCO, contando con un fuerte apoyo de la industria privada de los medios y de los grupos de presión. Su principal argumento era que los países menos desarrollados trataban de imponer el control gubernamental sobre los medios y suprimir la libertad de la prensa - a pesar del hecho de que la libertad de prensa fue muy apoyada en todo momento por el NOMIC. A la larga, Estados Unidos (en 1984) y el Reino Unido (en 1985) se retiraron de la UNESCO, en parte debido al NOMIC. Mientras surgía una nueva “sociedad de la información” politizada, el NOMIC en su forma original había declinado. Trató de permanecer en el programa de la UNESCO, aunque con poca acción, hasta 1987. Su fin oficial tuvo lugar en 1989, con la adopción de la “Nueva Estrategia de la Comunicación”, bajo el mandato del de Federico Mayor como Director General de la UNESCO. No obstante, los argumentos que dieron origen al movimiento del NOMIC siguieron existiendo e incluso en algunos casos llegaron a ser más agudos. Los argumentos continuaron emergiendo en nuevos llamados - esta vez fuera de los gobiernos - a los “derechos a la comunicación”. Después del NOMIC: Participación de la sociedad civil Para muchos, la principal lección del NOMIC fue que la forma de seguir adelante tendría que ser a través de la democratización de los medios y de la comunicación, y no mediante esfuerzos dirigidos por el Estado o la industria para crear nuevos órdenes internacionales. En la práctica, era necesario realizar un cambio significativo hacia la sociedad civil, que hasta ese momento había sido excluida en su mayor parte. Los que habían estado participando -principalmente organizaciones periodísticas y en algunos casos académicas - continuaron el debate bajo el contexto de la Mesa redonda MacBride, que se reunió anualmente de 1989 a 1999, e incorporó a la discusión a nuevos miembros de la sociedad civil. Un número creciente de ONG, algunas completamente independientes de los debates anteriores y en su mayoría ajenas a ellos (y a menudo sin conocerse entre sí), también comenzaron a cuestionar las tendencias de los medios, el conocimiento y la comunicación. Entre esas organizaciones se incluían asociaciones de medios comunitarios, organizaciones religiosas, sindicatos internacionales, ONG emergentes de Internet y grupos de defensa surgidos para abordar diversos temas (por ejemplo, el acceso a los medios, la ayuda a los medios independientes, la participación en las políticas reguladoras de los medios, la concentración de la propiedad de los medios, la censura comercial, la vigilancia de Internet, el exceso de derechos de autor y de patentes). Estos aspectos fueron colocados junto a preocupaciones más tradicionales como la censura y los controles gubernamentales. La importancia cada vez mayor de las tecnologías digitales y la aparición de Internet constituyeron también nuevos argumentos para la democratización, pues las contradicciones sociales existentes se manifestaron en las llamadas “divisiones digitales”. Se abrieron nuevos escenarios en los que podrían converger las reivindicaciones tradicionales y las emergentes. Debido a que era su punto fuerte, la sociedad civil dejó que su práctica sobre el terreno y las defensas en los escenarios nacionales y regionales dictaran el discurso, aunque, en ese entonces, las iniciativas no se consideraron trabajo de los “derechos a la comunicación”. Sin embargo, si se escribiera una historia del movimiento de derechos a la comunicación “desde sus inicios”, probablemente incluiría varias formas de activismo: el movimiento de telecentros, las comunidades de programas libre de código abierto (FLOSS), los centros mediáticos independientes, las organizaciones de género en las comunicaciones, los que abogan por que los contenidos locales se escriban en la lengua local, los proveedores de servicios de Internet (ISP) no lucrativos - todos ellos fortalecidos por las nuevas herramientas y tecnologías de trabajo en red. Estas formaciones apoyadas por instituciones donantes y académicos favorables - se desarrollaron de manera independiente y agudizaron las críticas a las nuevas jerarquías de la información y la comunicación. Durante los años noventa, se crearon varias coaliciones y se emprendieron iniciativas para abordar la situación más amplia implícita en muchos de estos aspectos; entre esas iniciativas se encuentran la Carta de la Comunicación de las Personas y la Plataforma para la Democratización de las Comunicaciones. Se efectuaron muchas conferencias y reuniones generales para aunar criterios e intercambiar ideas a escala internacional. Poco a poco fue surgiendo una nueva comunidad de usuarios basada en la sociedad civil, pero ahora desde una perspectiva diferente y que se beneficiaba gradualmente de la experiencia histórica y de la práctica sobre el terreno [4]. Muchos de sus miembros se unieron en octubre de 2001 en la Campaña por los Derechos de la Comunicación en la Sociedad de la Información (Campaña CRIS) [5], en los inicios de otro lugar de debate mundial sobre la gobernanza - la Cumbre Mundial sobre la Sociedad de la Información (CMSI). El “derecho a comunicar” y los “derechos de la comunicación” Los términos “derecho a comunicar” y “derechos a la comunicación” no son sinónimos, y su historia, su principio y sus tácticas están vinculados a su uso por parte de diferentes grupos. Como hemos visto, el término “derecho a comunicar” se asoció a una (mala) interpretación del NOMIC promovida por sus opositores. Aún en la actualidad, en el contexto de la CMSI, existen algunos que plantean que los intentos de promover un “derecho a comunicar” son simplemente esfuerzos encubiertos para restablecer el NOMIC [6]. A estos opositores les resulta más difícil criticar la idea de los “derechos a la comunicación” que la del “derecho a comunicar”, puesto que ha dejado detrás las connotaciones del NOMIC. En la esfera política también se ha convocado a la creación de un nuevo derecho conforme al derecho internacional. Este derecho se basaría en el actual marco jurídico internacional, al establecer el “derecho de comunicar” como un derecho inequívoco de todas las personas. Esta posición reconoce claramente que muchos de los actuales derechos humanos son componentes esenciales de este derecho, pero que un “derecho a comunicar” explícito lo reforzaría tanto desde el punto de vista conceptual como real. Sin embargo, no se han expuesto completamente las especificidades de este derecho, su formulación exacta, la forma legal en que sería incorporado, etcétera. Por otra parte, el término “derechos a la comunicación”, en plural, se refiere implícitamente a los actuales derechos relacionados con la comunicación. El énfasis cambia ligeramente hacia la aplicación en la práctica de los actuales derechos a la comunicación, no hacia el establecimiento de un nuevo convenio internacional. El llamado a la materialización de los derechos a la comunicación, y la reafirmación de que todos tienen - o deben tener - un derecho a comunicar, son totalmente complementarios. El “derecho a comunicar” se debe utilizar como llamado informal de convocatoria para la defensa, aunque también puede utilizarse en un sentido legal formal, en el cual debe tomar su lugar junto a otros derechos fundamentales consagrados en el derecho internacional. Los “derechos de la comunicación” se refieren inmediatamente a un conjunto de derechos humanos existentes, negados a muchas personas, y cuyo significado completo puede ser observado solo cuando son tenidos en cuenta juntos como un grupo correlacionado. La campaña de CRIS es la alianza internacional más articulada de la sociedad civil que pretende promover el concepto y la práctica de los derechos a la comunicación. Pero además de esta formación, muchos otros han adoptado el término en varias plataformas. El “derecho a comunicar” fue muy apoyado en varios puntos por influyentes participantes durante el proceso de CMSI. El tema adquirió cierta importancia, aunque los esfuerzos por desacreditarlo y el miedo a la controversia probablemente fueron responsables de su exclusión del texto final [7]. El Secretario General de las Naciones Unidas, Kofi Annan, indicó: “millones de personas en los países más pobres continúan siendo excluidos del “derecho a comunicar”, considerado cada vez más como un derecho humano fundamental” [8]. La Comisión Europea señaló: “la cumbre debe reafirmar el derecho a comunicar y al acceso a la información y al conocimiento”. [9] Otras importantes ONG, que no son miembros de la campaña de CRIS, también lo han apoyado. El Artículo 19, en su descripción del derecho a comunicar, lo describe como: “un término general, que abarca un grupo de derechos relacionados existentes. Esto significa que cualquier elaboración del derecho a comunicar debe ocurrir en el marco de los derechos existentes.” [10] Derechos a la comunicación vs.libertad de expresión La “libertad de la expresión” es uno de los fundamentos sacrosantos de todos los derechos humanos. Está contenida en numerosos tratados y convenios internacionales, y consagrada en diferentes formulaciones contenidas virtualmente en todas las constituciones y legislaciones nacionales. La referencia más citada es el Artículo 19 de la DUDH: “Todos tenemos derecho a la libertad de opinión y de expresión; este derecho incluye la libertad de opinar sin interferencia y de buscar, recibir y transmitir información e ideas a través de cualquier medio y sin tener en cuenta las fronteras.” ¿Es suficiente la libertad de expresión? La pregunta a que se enfrentan los defensores de los derechos a la comunicación es por qué se necesita algo más que la “libertad de la expresión”. Además, si en la práctica un derecho tan fundamental sigue siendo negado a muchos, ¿debemos realmente centrar nuestras energías en asegurar la libertad de expresión para todos? ¿El asegurar la libertad de expresión aseguraría en efecto los derechos a la comunicación? El ideal en que se basa la legitimidad de la libertad de expresión presupone un grupo de individuos que se comunican, cada uno de ellos con un derecho igual a concebir, transmitir y recibir ideas de otros, y de ese modo a llegar a decisiones racionales para beneficio mutuo. El problema con esto es que no vivimos como grupo de individuos con iguales derechos. Vivimos en una sociedad con grandes diferencias en los niveles de acceso al poder, una sociedad en la que la mayoría de la comunicación entre las personas es muy mediada y filtrada - en la cual los medios de comunicación, los gobiernos, las corporaciones comerciales, los grupos de interés especial y muchos otros se disputan la atención y tratan de influir en y controlar el contenido y el flujo de las comunicaciones. Una insistencia exclusiva en la libertad de expresión no dice nada con respecto al proceso por el cual son controlados los medios de expresión de la sociedad - periódicos, televisión, radio, filmes, música y material educativo - y en interés de quién operan. En este contexto, la libertad de expresión - en que las leyes impidan una intervención directa del Estado y defiendan la libetad de palabra - puede hacer muy poco para evitar el dominio de las voces más fuertes, es decir, las que tienen más posibilidades de influir en los medios de la comunicación dentro de la sociedad, independientemente de que se trate del gobierno, los propietarios de periódicos y los dueños de los medios, o de poderosos grupos de interés. En este ejemplo, ¿cuán real es la “libertad para recibir y transmitir la información”, si una persona apenas puede leer o escribir, o no puede hablar la lengua oficial del país? O, ¿cuán real es la libertad de “buscar y recibir información”, si los gobiernos y las corporaciones no están obligadas a proporcionarla? O, ¿si usted no puede darse el lujo de pagar materiales educativos o medios fundamentales de acceso a la comunicación tales como el teléfono o (cada vez más) la Internet? ¿Si usted sabe que sus medios de comunicación están siendo espiados? Estos son síntomas del acceso desigual al poder, en un mundo en el cual la comunicación es posible cada vez más solo a través de medios y mecanismos complejos y controvertidos. Por tanto, un desafío esencial para los defensores de la libertad de expresión es el cambio conceptual de la idea de individuos iguales, a la de una sociedad compleja y abigarrada con una comunicación muy mediada y diferentes estructuras de poder. Para poder enfrentarlo es necesario un conjunto adicional de conceptos e instrumentos, que constituyen el núcleo del discurso de los “derechos de la comunicación”. Formulación de los “derechos a la comunicación” Los derechos a la comunicación pueden verse como una creación de las condiciones para el ejercicio completo de la libertad de expresión en una sociedad compleja y mediada, en la cual el poder y el control de los recursos están distribuidos de manera muy desigual. De hecho, la libertad de expresión forma parte del núcleo de los derechos a la comunicación. Sin embargo, la defensa de los derechos a la comunicación va más allá en tanto crea el ambiente en el cual se puede consumar plenamente la libertad de expresión a escala de la sociedad. Los derechos a la comunicación se basan en la comunicación, la realización de una interacción entre las personas; Estos derechos que la libertad de interactuar con otras personas radica, en última instancia, en la generación de un ciclo de comunicación, del cual puede sobrevenir el aprendizaje, la comprensión y la cooperación. Una aproximación inicial al objetivo de los derechos a la comunicación es la siguiente: asegurar la generación de un ciclo considerado, creativo y respetuoso de interacción entre las personas y los grupos en la sociedad, que respalde en la práctica el derecho de todos por igual a hacer que sus ideas sean expresadas, oídas, escuchadas, tenidas en cuenta y respondidas. Derechos habilitadores Los derechos a la comunicación se basan en aspectos de otros derechos humanos -derechos “colaterales” o derechos “habilitadores”- contenidos en la Declaración Internacional de Derechos y en tratados y documentos legales suplementarios. Por ejemplo: Derecho a participar en su propia cultura, y a utilizar su lengua materna, incluyendo a las minorías étnicas, religiosas o lingüísticas; derecho a la información con respecto a la gobernanza y a temas de interés público (libertad de información); derecho a la protección de los intereses morales y materiales de la autoría; derecho al honor y la reputación propia, y a la protección contra ataques; derecho a la privacidad; derecho a la reunión y asociación pacíficas; derecho a la educación primaria gratuita y a la introducción progresiva de la educación secundaria gratuita. Una dimensión de cada uno de esos derechos trata sobre el proceso de comunicación en la sociedad (a todos se les podría añadir “en relación con los medios y la comunicación”). Estos derechos pudieran ser ser considerados el más alto nivel de los derechos a la comunicación. Sin embargo, se siguen especificando y en ocasiones se les añaden otras dimensiones. Por ejemplo: el derecho a utilizar medios diversos e independientes y al acceso a los medios ha sido reconocido en foros tan diferentes como el Tribunal Europeo de Derechos Humanos, el Tribunal Supremo de Sri Lanka, el Tribunal Constitucional Federal Alemán, la UNESCO, y las Resoluciones del Consejo de la Unión Europea. (Artículo IX, 2003) La promoción de los derechos a la comunicación pretende eliminar las barreras sociales, históricas, económicas y sicológicas de la comunicación, fomentar un ambiente de respecto mutuo y desarrollar las capacidades de todos en comunicación e interacción. Valor agregado de los derechos a la comunicación Esta interpretación de los derechos a la comunicación tiene varias implicaciones. En primer lugar, el conjunto de derechos a la comunicación es más que la suma de sus partes. Los derechos a la comunicación agrupan dimensiones relevantes de un conjunto de derechos habilitadores que los componen, y pueden ser aplicados solo a través de ellos. Sin embargo, los derechos a la comunicación pueden ser considerados también como metaderechos, que dan un significado nuevo y adicional a esos derechos habilitadores. En segundo lugar, el surgimiento de los derechos a la comunicación en la práctica es la creación de un clima de respeto y tolerancia mutuos no solo entre los individuos que poseen esos derechos, sino también entre diversas comunidades y culturas, grupos étnicos y nacionalidades. El llamado a los derechos a la comunicación respalda y apoya, a la vez, la idea y el valor de la diversidad. En tercer lugar, los derechos a la comunicación implican inevitablemente procesos y dinámicas sociales. Los derechos a la comunicación, por su propia naturaleza, cuestionan el hecho de si las estructuras sociales limitan y posibilitan de manera diferenciada la capacidad de diferentes individuos y grupos de comunicarse con eficacia dentro de las sociedades. El concepto de derechos de la comunicación nos obliga a hacernos partícipes de manera más exhaustiva del espíritu de la “libertad de la expresión” hacia la eliminación de las limitaciones en secciones completas de la sociedad, y a desarrollar el acceso y las capacidades de los excluidos. Derechos a la comunicación: ¿por qué ahora? ¿Por qué los derechos a la comunicación como concepto son especialmente más importantes ahora que en el pasado? ¿Qué justifica en este momento un movimiento encaminado a hacer cumplir y profundizar nuestros derechos a la comunicación? En las últimas décadas, la importancia de los derechos a la comunicación ha aumentado considerablemente, debido a un conjunto de factores y tendencias en la esfera de la información y las comunicaciones internacionales, entre los que se incluyen: Dominio corporativo y concentración de los medios. Efectos negativos de los sistemas de los medios en sobre la(s) identidad(es) y la(s) cultura(s). Aparición de regímenes de “derechos de autor” y erosión del dominio público del conocimiento mundial. Limitaciones de las iniciativas del mercado de las telecomunicaciones y las TIC. Erosión de los derechos civiles en el entorno digital, especialmente después del 11 de septiembre (por ejemplo, estructuras de vigilancia electrónica más completas y enmarcadas y aplicadas internacionalmente). Mediante el empleo del concepto de derechos a la comunicación se pueden analizar y entender todos esos temas y diseñar soluciones integrales. En conjunto, estas dinámicas tienen gran influencia en cada paso del proceso de comunicación en la sociedad. Estas tendencias pueden dar forma fundamentalmente a los resultados de la comunicación social y a quien se beneficia de ellos, mediante el control de la creación y propiedad del conocimiento, los procesos y medios de difusión y comunicación, y su empleo para alcanzar objetivos políticos, económicos y sociales. El peligro inminente es que cada momento del ciclo se está vinculando a las necesidades de capital y de mercado. El peligro final es que el ciclo del proceso de comunicación social de la sociedad se interrumpa, el proceso de aprendizaje social sea cada vez más débil, y, en definitiva, el proceso de creatividad se transforme y se reduzca en una reducida producción de beneficios, insostenibles y de corto plazo, para una pequeña minoría. La sociedad puede encontrarse con que prácticamente ha perdido la capacidad de crear, de compartir de manera inclusiva y equitativa el conocimiento, de participar democráticamente en las estructuras políticas, de expresar la diversidad cultural y la identidad, e incluso la capacidad de aprender de las generaciones pasadas y presentes. Los “derechos a la comunicación”, como concepto y como práctica, tienen potencialmente la profundidad y la amplitud para analizar y entender estos peligros y diseñar soluciones integrales para enfrentarlos. Medios de comunicación Marc Raboy Marcelo Solervincens “Medios” es, en muchos sentidos, un término antiguo. Un “medio” es, en el sentido estricto, un agente de transmisión. Los antiguos creían que el universo estaba conformado por el medio del éter. Para que se entienda mejor, el aire, o el agua, es un medio. En este sentido, un medio de transmisión -o comunicación- es un agente neutro. Sin embargo, se puede apreciar con facilidad que a pesar de su estado aparentemente objetivo, la naturaleza de un medio ya determina el tipo y la calidad de la información que puede pasar por él. El uso moderno se apropió del término con el significado de medios de comunicación. Aunque en la actualidad consideraríamos al libro o la prensa como medios, el término tomó vigencia con el surgimiento de la comunicación a larga distancia a través de la tecnología -o la telecomunicación. La telegrafía fue el primer medio de comunicación verdaderamente moderno, seguido rápidamente por la telefonía, la radio, la televisión, la transmisión por cable y satélite, y por supuesto Internet. Todo este desarrollo ocurrió en los últimos 150 años, la mayor parte durante el último siglo con Internet en la ultima década. A lo largo del progreso de la tecnología, cada nueva generación de medios de comunicación trajo consigo su carga de utopías de creación de espacios públicos de interacción participativa entre ciudadanos informados que hacen uso de su derecho a la palabra. Todo medio de comunicación nuevo constituye al mismo tiempo el punto de disputas entre lógicas societales en competencia del Estado, del mercado y de la sociedad civil. Históricamente, las luchas por la libertad de prensa, y la libertad de expresión que ella implicaba en ese entonces, han estimulado y participado en las grandes batallas democráticas contra la censura, los derechos humanos, la esclavitud, etc. Estas luchas han contribuido en gran medida a la elaboración y la fundación de nuestras democracias y los principios y legislaciones que prevalecen en la actualidad en términos de derechos a la información y a la comunicación. Asimismo, lograron modelar una intersección de espacios mediáticos en el cual coexisten diversas formas de medios de comunicación y de instituciones mediáticas. Hoy consideramos a los medios de comunicación como las instancias masivas de la comunicación, ya sea la prensa, la radio y la televisión en sus acepciones públicas, privadas o comunitarias. Se trata de mecanismos que permiten la diseminación masiva de información facilitando la construcción de consensos sociales, la construcción y reproducción del discurso público y ciertos niveles de interacción principalmente de los nuevos medios independientes, alternativos y comunitarios. [1] El papel y el lugar de los medios de comunicación en la sociedad Las reflexiones sobre los medios de comunicación se centran tradicionalmente en la capacidad de las instituciones mediáticas y de las tecnologías de comunicación de desempeñar un papel en la democratización de las sociedades, en la creación de una esfera pública a través de la cual las personas pudieran participar en asuntos cívicos, en el realce de la identidad nacional y cultural, en la promoción de la expresión y el diálogo creativos. Por ello, los debates sobre las diferentes formas de censura y sobre la propiedad de los medios de comunicación siempre han formado parte de las agendas de trabajo. El sentido de las preguntas que se plantean las lógicas del mercado así como las estatales es más bien de cómo constituir una vía para la publicidad, cómo generar beneficios financieros para los accionistas y cómo servir como instrumentos de propaganda y control social y político. En casi todos los contextos nacionales, se considera necesaria cierta forma de intervención -o regulación- gubernamental que permita a los medios de comunicación desempeñar uno u otro de los roles antes mencionados. Tan pronto como la producción y distribución de los medios requiera un mayor grado de organización y de recursos que los que pueden proporcionar artistas o creadores individuales que trabajan en grupos relativamente pequeños -es decir, tan pronto como los medios de comunicación se industrialicen- normalmente el estado asume cierta forma de organización estructural, ya sea directamente o a través de una autoridad a distancia. Esto se puede hacer de varias maneras. En el modelo de mercado libre, el estado crea un ambiente en el cual las corporaciones de los medios de comunicación gozan de plena libertad para operar comercialmente; el acceso al mercado en algunos sectores tales como la difusión sigue estando controlado fundamentalmente mediante la concesión de frecuencias de transmisión, mientras que el área de la prensa escrita queda abierta a cualquier persona que disponga de los recursos para poseer y operar un medio de comunicación. En el modelo autoritario, los medios de comunicación se consideran una extensión de la autoridad estatal. El modelo de servicio público pone énfasis en la creación de servicios de radio y televisión al servicio público, en el financiamiento de unos medios de comunicación no lucrativos basados en la comunidad y en varias restricciones sobre la propiedad de los medios de comunicación comerciales (limitando la cantidad de puntos de distribución que una firma particular podría controlar o prohibiendo que los propietarios de dichos medios de comunicación sean extranjeros). En realidad, en muchas sociedades, si no en la mayoría, los medios de comunicación funcionan según un modelo mixto basado en una combinación de dos o más de los antes mencionados. En la mayoría de los casos existe una instancia reguladora que dicta y controla las reglas de funcionamiento a nivel nacional. En la actualidad, todo el mundo reconoce que la lógica del mercado es la que predomina y la que impone sus valores y sus condicionamientos sobre los modos de producción y de distribución, lo que acarrea consecuencias mayores sobre los contenidos y la naturaleza misma de la información. Ahora bien, aquí aparecen nuevos desafíos mucho más complejos relacionados con la concentración de medios de comunicación, la uniformización y la pobreza de los contenidos, el desequilibrio de los flujos de información y la falta de diversidad cultural, el papel regulador de los Estados en los planes nacionales e internacionales, y la necesaria redefinición de un servicio público en términos de información. Además de esto, la reciente revolución digital viene a cuestionar a los medios de comunicación respecto a su propia definición y redefine su papel en términos completamente inéditos colocándolos en una “sociedad de la información” que se esfuerza por delimitar. La relación entre los medios de comunicación y la sociedad de la información plantea efectivamente un desafío aparentemente paradójico. Por un lado, los medios de comunicación de masa (prensa, radio, televisión) viven un proceso de concentración de la propiedad y de integración horizontal y vertical de sonido, audio e imagen gracias al advenimiento del soporte numérico. Por otro lado, Internet y el soporte digital en general individualizan y democratizan el acceso a la comunicación y a la interacción, permitiendo el desarrollo inédito de nuevos medios alternativos o cooperativos que afectan al mismo tiempo a los medios masivos tradicionales. La relación entre los medios de “comunicación” y la sociedad de la “información” aparece por tanto bajo la forma de una disociación contradictoria que es difícil explicar sin considerar la definición del proyecto de la sociedad de la información, el contexto en el que evolucionan los actores que construyen la sociedad de la información y los desafíos que plantean los avances tecnológicos. Estado actual: medios de comunicación globalizados Un análisis del estado actual de los medios de comunicación sobre todo en esta época de globalización ilustra los nuevos desafíos que reubican el papel de los medios de comunicación dentro de una sociedad de saberes compartidos. Es necesario destacar que en el contexto de la globalización neoliberal, la información “digital” se ha transformado en una mercancía más que circula de acuerdo a las leyes del mercado de la oferta y la demanda. Según esta lógica, los medios no están vendiéndole información a los ciudadanos, están vendiendo los ciudadanos a los publicistas. En esta medida, los contenidos resultan en distorsión de la realidad, fortaleciendo los estereotipos y reduciendo claramente la diversidad de los contenidos distribuidos. A manera de ejemplo -bastante utilizado- del resultado de este proceso de desregulación de los últimos 30 años, se pueden citar las declaraciones del jefe de la Instancia reguladora estadounidense bajo Ronald Reagan en 1980, quién en plena fiebre desreguladora declaró que la televisión era como cualquier aparato doméstico, como un “tostador con imágenes.” Y como no se regulan los tostadores, por qué regular la televisión. Lo cierto es que la privatización y la liberalización que acompañan a la globalización no han producido medios más diversos y pluralistas. [2] La irrupción de la revolución de Internet y de la era digital atrajo al sector de la información, con la perspectiva de ganancia fácil, a una plétora de industriales de los sectores más variados -electricidad, informática, armamento, construcción, teléfono, agua. Edificaron gigantescos imperios que acapararon en pocas manos los medios de comunicación e integraron de manera vertical y horizontal los sectores de la información, la cultura y la diversión, separados anteriormente, con el desarrollo de conglomerados donde el conocimiento y los contenidos se transforman en una nueva mercancía. Estos conglomerados multi-medios influyen en todos los aspectos de la vida cultural, social y política. Sin embargo, su lógica misma ha generado que los medios de masa hayan dejado de funcionar como contrapoder. Los medios de comunicación de masa (radio, periódicos, televisión, Internet), se realinean en función de una vocación mundial, y ya no más de carácter nacional. El proceso de concentración de los medios se traduce como el control de una gran variedad de medios en diferentes países y continentes. Por ello, no actúan como contrapoder al interior de los países. Estos principales grupos son: Vivendi Universal, AOL Time Warner, Disney: News Corporation, Viacom y Bertelsmann, General Electric, Microsoft, Telefónica, France Telecom [*]. El poder real se encuentra ahora entre las manos de estos conglomerados que tienen más poder económico que la mayoría de los gobiernos. [3] La ausencia de los principales conglomerados mediáticos en los debates de la CMSI da cuenta de esta realidad. La concentración de la propiedad de los medios significa por ejemplo que los cinco mayores conglomerados estadounidenses controlan casi la totalidad de las cadenas de radio y de televisión de este país. Lo importante no es el número de * NOTA DE MEC Vivendi Universal (actualmente Vivendi S.A.): conglomerado francés con presencia en los mercados de telecomunicaciones y entretenimiento, actor principal en la industria discográfica y de videojuegos a escala mundial a través de sus subsidiarias Universal Music Group y Activision Blizzard. Time Warner (denominada AOL-Time Warner entre 2001 y 2003, tras la fusión entre America Online y Time Warner): empresa estadounidense dedicada a la comunicación, con divisiones dedicadas a Internet, a la publicación, televisión y a las telecomunicaciones. The Walt Disney Company S.A. (también conocida como Disney Enterprises, Inc., simplemente Disney o Grupo Disney S.A.): una de las compañías de medios de comunicación y entretenimiento más grandes del mundo con sede corporativa en Burbank, California. News Corporation (abreviado News Corp): empresa de medios de comunicación estadounidense con sede central en Nueva York. El presidente, consejero delegado y fundador de la compañía es Rupert Murdoch. En 2009 la Oficina Contable del Gobierno estadounidense informó de que News Corp posee 152 empresas subsidiarias en paraísos donde no pagarían impuestos o donde estos serían muy reducidos. Viacom Inc. o simplemente Viacom: es un conglomerado de medios de comunicación estadounidenses de intereses mundiales por cable y satélite (MTV Networks y BET) y la producción de películas (Paramount Pictures y DreamWorks).Sumner Redstone es el presidente y mayor accionista de Viacom. También es dueño de Nickelodeon y Neopets. Viacom y CBS Corporation tienen el mismo dueño y mayor accionista manejándolos. Bertelsmann AG: empresa de medios de comunicación multinacional con sede en Gütersloh, Alemania. Opera en 63 países y da empleo a más de cien mil personas. Consta de seis divisiones corporativas: RTL Group, empresa de radiodifusión europea; Gruner + Jahr, empresa editora de revistas (la más grande en Europa y la segunda más grande mundialmente); Prisma; BMG (Bertelsmann Music Group); BMG Music Publishing; Random House, el mayor editor de libros (literatura popular); Direct Group, el mayor distribuidor de libros y música; Arvato, un servicio internacional para medios de comunicación. General Electric: empresa multinacional de infraestructuras, servicios financieros y medios de comunicación altamente diversificada con sede central en Fairfield, Estados Unidos. Está presente en más de 100 países, con más de 300.000 empleados. Constas de cinco divisiones -GE Technology Infrastructure, Home & Business Solutions, Energy Infrastructure, GE Capital y NBC Universal- que operan en numeroso sectores de actividad, desde energía, agua, transporte y salud hasta servicios de financiación e información. Microsoft Corporation: empresa multinacional de origen estadounidense, dedicada al sector de la informática, con sede en Redmond, Washington, Estados Unidos. Desarrolla, fabrica, licencia y produce software y equipos electrónicos. Telefónica S. A.: operador multinacional de servicios de telecomunicaciones con sede central en Madrid, España, con presencia en Europa, África, Latinoamérica y, desde 2010, en Asia. Al mes de julio de 2010 es la quinta compañía de telecomunicaciones en tamaño e importancia en el mundo. France Telecom: principal operador de telecomunicaciones en Francia. Emplea cerca de 220.000 personas y tiene unos 150 millones de clientes en todo el mundo. canales de televisión sino la diversidad de fuentes y de propietarios. Del primer caso resulta un mensaje simplificado para el consumo masivo. Con ello, es el derecho a la información el que aparece limitado y en entredicho. Por un lado, el fin de los monopolios estatales en países del Sur y en Europa ha traído consigo avances en la pluralidad de medios, aunque existe preocupación por la deslegitimación de los medios tradicionales. Sin embargo, la desreglamentación favorece este proceso porque a pesar de que las leyes de la libertad de prensa hayan sido establecidas para limitar el poder estatal, ahora resultan insuficientes para asegurar que la información y la comunicación sean un bien común. Como lo indica Ignacio Ramonet, aunque en los países del Norte la libertad de palabra esté garantizada, el derecho a estar bien informado es cuestionado por la concentración de los medios. Por último, estos conglomerados no diferencian las tres formas tradicionales de comunicación (escrita, verbal o con imágenes), fomentando tanto Internet como las telecomunicaciones en general como un nuevo y poderoso medio que abarca las actividades culturales, de diversión y deportivas, de comunicación y de información. En esta medida cada vez es más difícil distinguir a los diferentes sectores industriales de la información de los de la cultura de masas y de la diversión. Los grandes conglomerados mundiales adquieren dimensiones de multimedia y venden sus productos bajo otros soportes aparte de la radio, la televisión y los periódicos tradicionales, o sea con filmes, videos, discos compactos, DVDs, parques de diversiones, cines, teatros, deportes. El desarrollo de las cadenas mundiales de información continua del tipo CNN ha sido imitado por otras cadenas estadounidense y del mundo, entre otras BBC, con gran impacto. La manipulación de la información y la resistencia en los países del Sur del planeta han dado origen, en primer lugar, a la cadena árabe Al’Jazeera, para contrarrestar la campaña contra el islamismo. Más recientemente, ha surgido Telesur con base en Venezuela, para contrarrestar la “propaganda estadounidense”. Estas experiencias evocan el cuestionamiento del Informe MacBride en los años 70 y las esperanzas fallidas de los países no alineados en un proyecto de “Nuevo Orden Mundial de la Información y de la Comunicación” propuesto por la Unesco. [4] Y al mismo tiempo, revelan la capacidad de adaptación de los medios tradicionales a las nuevas tecnologías y su persistencia como vehículos masivos de producción de consensos sociales y políticos. Los nuevos medios de comunicación. La apropiación por las comunidades y los ciudadanos El impacto de los nuevos medios de comunicación de la sociedad de los saberes y del conocimiento está ligado a la posibilidad de una mayor apropiación de quien los usa, ya sea como individuo o como una comunidad o grupo activo. A comienzos de los años 70 los medios de comunicación masivos tradicionales ya habían entrado en crisis en la medida en que la radio, la prensa y la televisión dejaban de lado a las minorías y a los asuntos locales. En ese contexto los cambios tecnológicos favorecieron el desarrollo de proyectos colectivos de comunicación. En los años 60 y 70, en todas las regiones del mundo, se empezaron a desarrollar proyectos de videos y de emisoras de radio locales y comunitarias contra la hegemonía y las limitaciones de los medios tradicionales. Estas acciones se vieron beneficiadas con la revolución provocada por la aparición de los transistores, de los transmisores FM, del video. A esta etapa pertenecen las radios piratas en el Reino Unido, las radios libres en Francia, las televisiones comunitarias, las radios y clubes de video involucrados en la comunicación para el desarrollo, [5] movimientos sociales que usan las tecnologías apropiadas para llevar a cabo proyectos contra la crisis de representatividad de los sistemas políticos existentes y que constituyen una resistencia contra los grandes medios de comunicación. Se trata de procesos de contra-información y de procesos de comunicación en interactividad social que realizan las comunidades a partir, por ejemplo, de radios comunitarias en zonas rurales. [6] Estos nuevos actores multiplican los espacios mediáticos y forman redes nacionales, regionales e internacionales que tarde o temprano harán su aparición sobre el escenario político mundial, interviniendo en diferentes instancias políticas. [7] La llegada de Internet no sólo tuvo un impacto importante en los medios tradicionales, como ya se ha señalado, sino también en el fortalecimiento de los medios alternativos y comunitarios como la radio, la televisión y la prensa comunitaria favoreciendo procesos sociales de comunicación interactiva e intercambios en multimedia producto de la digitalización de los mensajes y de la integración de los “telecentros”. Internet abrió la posibilidad de un espacio inédito de intercambio de la información fuera de los circuitos de los conglomerados mediáticos, lo que contribuyó a dar una dimensión real al movimiento social mundial de la sociedad civil en temas globales. Algunos eventos en los que la circulación libre de información en Internet fue relevante son: la Rebelión Zapatista, en 1995 en Chiapas; la creación en red del movimiento francés ATTAC, a fines de 1998; el desarrollo en Internet de freenets, de los Centros de medios independientes como Indymedia que mostraron su eficacia en 1999 en Seattle para la cumbre de la OMC. Entre los movimientos recientes destaca el uso de Internet para canalizar la información alternativa y la organización ciudadana de reacción a la manipulación de la información por parte del gobierno de Aznar en España, después de los atentados de la estación Atocha de Madrid en 2004. En la misma tendencia de uso de las TIC para el fomento de redes y medios alternativos de circulación de la información y de monitoreo se encuentran el Observatorio Francés de Medios de Comunicación, el CMAQ en Québec, Pulsar en América latina y Simbani en Africa. [8] Por otro lado, el desarrollo de los iPod y de los blogs, entre otros avances tecnológicos, sumados al uso de Internet favoreció la creación de nuevos medios de comunicación y nuevas experiencias de periodismo ciudadano que han tenido gran éxito no sólo en Estados Unidos y en países desarrollados sino también en la lucha por la libertad de expresión en los países del Sur. Entre los nuevos medios de comunicación alternativos destaca el desarrollo inédito de comunidades virtuales en una perspectiva de mayor apropiación individual, a la vez local e internacional. [9] Cabe mencionar dentro de los movimientos sociales y redes ciudadanas en Internet con esta óptica [10] a: Globalcn, Mistica, Vecam, la Comunidad Web de movimientos sociales.[11] Se trata, como lo señala Manuel Castells, del advenimiento de las redes como nueva morfología social basada en la interconexión y la flexibilidad de la nueva topología que permite una circulación de enunciados que generan nuevos sentidos y efectos para la acción social y ciudadana;[12] lo que permite la existencia de redes de movimientos sociales, redes ciudadanas y cibercomunidades sobre temas de carácter mundial como la defensa del medio ambiente, la promoción de los derechos de la mujer en la organización de la cuarta Conferencia Mundial de la Mujer de la ONU y de la Marcha Mundial de las Mujeres. Este desarrollo de los medios alternativos en la red y mediante el uso de nuevas tecnologías no deja de estar enfrentado a enormes desafíos entre los que destaca la problemática de la excesiva circulación de información en Internet. Algunos estudios señalan [13] que si antes había apenas algunos medios en cada localidad, ahora existen millones de sitios accesibles, lo que hace que el 50% del tráfico en la red visita un 0.5% de los sitios web. De este modo, la riqueza de la información se traduce en disminución de la atención y la cuestión de la credibilidad de la información se transforma en una cuestión fundamental. Funciones y responsabilidades de los medios de comunicación. La regulación, tema central del debate ¿Cómo intervendrá la comunidad internacional para facilitar un proceso de democratización de las comunicaciones en la relación compleja entre los medios y la sociedad de la información? Con el advenimiento de la globalización, debido a una variedad y combinación de razones -algunas técnicas, otras políticas, económicas, o ideológicas- los políticos nacionales están menos dispuestos y son menos capaces de intervenir en la esfera de la actividad de los medios de comunicación. Al mismo tiempo, han surgido poderosos mecanismos formales e informales (tales como acuerdos comerciales internacionales) a escala internacional, que limitan la capacidad de los gobiernos nacionales de influir en este sector. El ambiente internacional de los medios de comunicación en la era neoliberal es una nueva frontera en la que las reglas se van estableciendo sobre la marcha; como en toda situación fronteriza, el más poderoso establece las reglas para satisfacer sus necesidades particulares, mientras el menos poderoso trata de sobrevivir en una situación que él no creó. Por otro lado, si dejamos de lado a las agencias internacionales como la UIT, que tienen un papel puramente más que nada técnico y que son subvencionadas y controladas por las grandes empresas mediáticas, no quedan lugares ni instancias donde se pueda debatir y menos aún tomar decisiones respecto a la información y los medios de comunicación como lo fue la UNESCO. En este contexto, la CMSI constituía habrá constituido una ocasión única para discutir sobre los medios de comunicación en la sociedad de la información.[14] Sin embargo, la clara ausencia de los grandes medios de comunicación a lo largo del proceso preparatorio y de las Cumbres de Ginebra y Túnez no ha hecho posible dicho debate lo que pronostica resultados negativos. No obstante, la CMSI habrá permitido por lo menos que los diferentes actores sociales que participaron en este acontecimiento fundamental se posicionen. Para algunos -incluyendo varios gobiernos y agencias internacionales importantes tales como la Unión Internacional de Telecomunicaciones y la Organización Mundial del Comercio-, los medios de comunicación no son otra cosa que un molde vacío a través del cual viaja la información. Según este punto de vista, no tiene ningún sentido, por ejemplo, debatir sobre los derechos humanos o la libertad de expresión en la Cumbre Mundial sobre la Sociedad de Información. Para aquellos para quienes el término “medios de comunicación” se refiere en primer lugar al contenido y luego al envase, una afirmación como la antes mencionada es como valorar un vino por la forma de su botella. Otro aspecto de este debate gira alrededor de la regulación. Los defensores de la desregulación de los medios plantean que la televisión, como hemos visto antes, no es más que “una tostadora con imágenes”. Por otro lado, aquellos que defienden la autorregulación de la industria o la regulación compartida entre la industria y el gobierno son más sensibles a la importancia del contenido, pero atribuyen un papel predominante a las entidades corporativas que constituyen las grandes organizaciones de los medios de comunicación. El punto de vista de los medios de comunicación centrado en las personas enfoca el papel de éstas en la sociedad como facilitadores e intermediarios del debate público y del empoderamiento individual y colectivo. Desde este punto de vista, los medios de comunicación deben disfrutar de libertad de expresión sujeta a ciertas obligaciones -por ejemplo, la necesidad de respetar la dignidad humana. En este sentido, también son cuestiones claves el acceso y la accesibilidad -la capacidad de utilizar los medios de comunicación para enviar y recibir mensajes. Esta visión también reconoce la naturaleza ambivalente de los medios de comunicación masiva contemporáneos como agentes del status quo social y como agentes potenciales del cambio. Acentuar el papel social de los medios de comunicación justifica las limitaciones que la sociedad les impone -por ejemplo, las restricciones en la concentración de la propiedad de los medios de comunicación, las reglas para los distribuidores por cable y por satélite, la obligación de trasmitir mensajes de servicio público, el derecho a responder, etcétera. Las nuevas formas de comunicar y la creación de plataformas de comunicación interactiva y cooperativa implican también el reconocimiento de nuevos bienes comunes de la información, una redefinición de lo que se entiende por “servicio público” de información y comunicación y una revisión de los regímenes de propiedad intelectual. Por consiguiente, los debates sobre los medios de comunicación están cada vez más implicados en el debate internacional más amplio sobre los derechos a la comunicación. Notas y Referencias [1] GKP, The Media & the Information Society, (2004) Kuala Lumpur, GKP. [2] Marc Raboy, Media and Democratization in the Information Society, http://files.crisinfo.org/raboy.pdf [3] Ignacio Ramonet, Le cinquième pouvoir, Le Monde Diplomatique, Octobre, 2003. [4] Alfonso Gumucio’Dragón, Right to Communicate. From the Summit to the People, I4d, in http://www.i4donline.net/july05/rig... [5] Ignacio Ramonet en el seminario Democratizar las comunicaciones y los medios en el FSM el 25 de enero de 2005. [6] No debe confundirse con la interactividad de las comunidades vituales a través del Internet. Ver Bruce Girard (Editor) The one to watch. Radio New ICTs and interactivity, 2003, FAO, Roma, p. 8 p. 12. [7] Alain Ambrosi, La difficile émergence des réseaux de communication démocratique dans l’espace politique global in Proulx Serge et Vitalis André (dir.) Vers une citoyenneté simulée. Médias, Réseaux et mondialisation, Apogée, Rennes, 1999. [8] http://www.amarc.org [9] RedISTIC, Otro lado de la brecha. Perspectivas latinoamericanas y del caribe ante la CMSI, (2003), RedISTIC, Caracas. [10] Valérie Peugeot, Réseaux humains, réseaux électroniques, Paris, Charles Léopold Mayer, 2002. [11] Osvaldo León et Al. Movimientos sociales en la red, (2001) Quito, ALAI. [12] Manuel Castells, La era de la información: Economía, sociedad y cultura - La sociedad en Red, (1999), México, Siglo XXI. [13] Matthew Hindman, Media Diversity and the Concentration of online attention, Harvard, 2002 [14] Por otro lado, la Unión Europea de radiodifusión cooperó en la organización, en diciembre de 2003, de un Foro Mundial sobre los Medios de Comunicación Electrónicos, uno de los eventos más importantes realizados paralelamente a la Cumbre en términos de financiamiento y asistencia. http://www.wemfmedia.org/ Bibliografia «Définir des sociétés de l’information centrées sur les besoins des êtres humains », Déclaration de la société civile au Sommet mondial sur la société de l’information, 8 décembre 2003. Aigrain, Philippe, Cause commune. L’information entre bien commun et propriété, 2005. Aprea, Gustavo, La Sociedad, Información y el Conocimiento ante la difusión de las TIC, in http//www.littec.ungs.edu.ar Mattelart, Armand, Genèse de la notion de société de l’information ; Peugeot, Valérie (Coordonnatrice) Réseaux humains, réseaux électroniques, (2001) Paris, Charles Leopold Mayer-Vecam. Reich, Robert, The work of the Nations. Prospering Ourselves to XX! Century Capitalism, (1991) Nueva York, Knof. Piratería Christine Schweidler Sasha Costanza-Chock Al menos desde el siglo XV, la propaganda estatal y la corporativa han empleado el término “piratería” para referirse a la apropiación y reventa de la propiedad privada. Más recientemente, la aplicación de este término se ha extendido a la reproducción y distribución ilegal de bienes intangibles, independientemente de que los “piratas” tengan o no afán de lucro. La campaña propagandística relacionada con la “piratería” en línea ha sido muy exitosa. Sin embargo, rara vez el análisis público incluye la valoración de la amenaza que representa para el conocimiento y la creatividad la limitación del área pública del conocimiento en manos de empresas multinacionales privadas. En nuestra definición de “piratería”, comenzaremos haciendo un recorrido a través de la historia legal y popular del término, desde el “pirata” marítimo, que asoló a los monopolios de comercio marítimo, hasta los actuales “piratas” digitales, que se dedican a la duplicación, la distribución o el empleo desautorizados de materiales patentados o protegidos por el derecho de autor. Luego analizaremos el uso actual del término por parte de la industria como herramienta fundamental en sus esfuerzos por penalizar el intercambio libre de información. Primero nos concentraremos en el concepto de “piratería” empleado en discusiones de materiales audiovisuales, software y otras formas de información digital. No obstante, queremos destacar desde el principio las conexiones entre la lucha por la penalización de la invasión de la “propiedad intelectual” en la arena del contenido digital y las acciones relacionadas que tienen lugar en otros sectores. La expansión mundial del sistema de la “propiedad intelectual” (en especial las patentes) tiene un significativo impacto en el acceso al conocimiento esencial de la medicina, la biotecnología, la agricultura, la ciencia, etcétera. Por último, concluiremos resaltando algunos proyectos y vías alternativas utilizados por los activistas de la sociedad civil para salvaguardar el valor social del conocimiento. Historia del concepto El término moderno “piratería” fue utilizado por primera vez en el siglo XV [1]. Se aplicó inicialmente a individuos apátridas que se apoderaban en alta mar de las mercancías transportadas por embarcaciones de compañías del Estado o respaldadas por este. Aunque puede parecer que el uso actual del término es lo suficientemente diferente como para garantizar apartarlo totalmente de su sentido marítimo, existen varios vestigios de este uso inicial que aún persisten. El antiguo concepto de piratería marítima fue, en parte, una idea desarrollada y promovida por poderosas empresas privadas que buscaban la protección legal del Estado para legitimar sus propios intereses materiales y los monopolios comerciales [2]. Por consiguiente, incluso durante el apogeo del saqueo en alta mar, el uso del término dependía completamente de la posición que se tuviera [3]. Por ejemplo, fue muy importante la distinción legal británica entre “corsarios”, que eran barcos o individuos reconocidos o patrocinados por un Estado europeo o cualquiera otro; y los “piratas”, que no pertenecían a ningún Estado. El concepto de piratería se arraigó de forma tan intensa en el supuesto de un derecho a la dominación comercial, que a menudo las naves europeas consideraron legítima su propia depredación de los comerciantes locales. En otros términos, la única diferencia entre “pirata” y “corsario” era que este último poseía una carta del gobierno que lo autorizaba a saquear. En la actualidad, la batalla contra la “piratería” se lleva a cabo en el reino del conocimiento comercializado, y en la ley y la retórica del uso, la distribución y la producción ilegítimos de bienes que giran en torno a políticas cada vez más proteccionistas que rigen los intangibles, tales como las marcas de fábrica, las patentes, y el derecho de autor. Los antecedentes de estas políticas provienen de los siglos XVI y XVII, cuando las leyes venecianas e inglesas concedieron los monopolios de la impresión a editoriales específicas, y establecieron el control directo del Estado (es decir, la censura). Durante el siglo XIX, el término “piratería” se aplicó cada vez más a las editoriales que hacían copias de libros para vender sin permiso del autor o sin pagar comisiones por derecho de autor al autor original. Muchos de los debates en esta época giraban en torno a la reproducción no autorizada de trabajos en el extranjero, donde las leyes locales no tenían jurisdicción. En una fase temprana en la historia de los Estados Unidos, el Congreso norteamericano reconoció el papel que desempeñarían la importación y la amplia diseminación de trabajos culturales, artísticos y científicos extranjeros en la promoción de la alfabetización y en el “desarrollo” económico, político, social y cultural. De esta forma, aunque la Ley Norteamericana de Derecho de autor de 1790 ofrecía protección limitada a los autores nacionales, la Sección 5 de la Ley planteaba que: “...nada de lo dispuesto en esta ley se interpretará como una prohibición a la importación o venta, reimpresión o publicación dentro de los Estados Unidos, de cualquier mapa, diagrama, libro o libros escritos, impresos o publicados por cualquier persona que no sea ciudadano de Estados Unidos, en el extranjero o en lugares que no estén bajo la jurisdicción de los Estados Unidos.” [4] Es decir, los que redactaron la primera ley norteamericana de derecho de autor entendían que limitar el alcance de los derechos privados de propiedad del conocimiento era de interés público y estatal. De esta forma, EE.UU. decidió establecer su propia soberanía sobre las reclamaciones de propiedad de otros Estados e individuos. De hecho, la “piratería” de libros y otras formas impresas estaba muy extendida en la época colonial de los estados norteamericanos [5]. Después de la independencia, la apropiación de obras extranjeras fue estimulada por élites que planteaban que serviría para elevar el nivel cultural público (una definición demasiado inadecuada de “público”, compuesto por hombres blancos libres), así como para estimular el desarrollo de la literatura nacional y de una industria editorial local [6]. Por ejemplo, Thomas Jefferson planteó que el acceso libre y abierto a la información era vital para el proceso democrático, y necesario para que el público se autogobernara. En realidad, el propio espíritu de la Cláusula de Derecho de autor 1787 de la Constitución de los Estados Unidos obliga al Congreso a equilibrar los intereses financieros individuales de los creadores con el interés del gran público con acceso a la información [7]. Esta cláusula se convirtió en la base legal del uso equitativo: el principio de que se harán excepciones del derecho de autor para fines de crítica, parodia, reportes de noticias y educación [8]. Los tiempos han cambiado. Para finales del siglo XIX, el desarrollo de la ley internacional de derecho de autor estaba bien avanzado. En 1886, diez países (excluyendo a EE.UU., que no firmó hasta 1988) estaban preparados para firmar lo que se conoció como el Convenio de Berna. Este Convenio proporcionaba a todos los países participantes una garantía de respeto mutuo para las leyes nacionales de derecho de autor que protegen las obras literarias, científicas y artísticas, y ofrecía excepciones limitadas para los países “en desarrollo”. Durante el siguiente siglo, el Convenio de Berna fue sometido a revisiones y firmado cada vez por más países. En 1967, se convirtió en la piedra angular de la Organización Mundial de la Propiedad Intelectual (OMPI), un órgano creado dentro del sistema de la ONU para supervisar, desarrollar y promover la “propiedad intelectual” (derecho de autor, patentes, y marcas registradas). Entretanto, tecnologías como las fotocopiadoras, que impactaron el mercado en 1949 y cuyo empleo se extendió a finales de los años sesenta, transformaron la “piratería” del libro y de partituras musicales en un floreciente negocio internacional. Igualmente a finales de los años sesenta, la grabación de audio en cintas magnetofónicas alteró la industria musical, los casetes rivalizaron con los discos de vinilo como forma estándar de distribución, y los propagandistas de la industria comenzaron a aplicar el término “piratería” a la duplicación masiva de forma ilícita de casetes de música para venderlos a los consumidores [9]. En 1971, la Ley Norteamericana de Grabación de Sonido inició la protección de las grabaciones de sonido bajo la ley de derecho de autor. En los años setenta tuvo lugar el desarrollo y la difusión de las primeras video-caseteras prácticas para el hogar, y se produjeron las primeras copias “piratas” de películas comerciales. En respuesta a estos avances tecnológicos, las compañías de la industria cinematográfica presionaron al Congreso para la protección contra las propias tecnologías de duplicación, y demandaron mayores sanciones para la duplicación ilegal. Las compañías de grabación también influyeron para retardar la puesta en circulación de las tecnologías que según ellas afectarían su monopolio de distribución. En la mayoría de los casos, la presión ejercida por la industria no logró impedir el desarrollo y la distribución de las tecnologías de duplicación [10]. Sin embargo, la industria audiovisual presionó con éxito al Congreso norteamericano para penalizar la “piratería”, y durante los últimos 30 a 40 años, el Congreso amplió repetidamente las definiciones y sanciones por la infracción del derecho de autor. La Ley Norteamericana de Derecho de autor de 1976 expandió la aplicación de la ley a aquellos que incluso no habían obtenido ni un centavo de la infracción, pero que se pudiera demostrar que intentaban obtener ganancias; la Ley de Piratería y Modificaciones Falsificadas de EEUU de 1982 aumentó significativamente las sanciones por infringir las obras audiovisuales registradas [11]. De modo similar, el rápido desarrollo de la industria de software de computación en los años ochenta estuvo acompañado de las exigencias de la industria de software para la protección de sus “bienes”. Sus esfuerzos se vieron premiados en 1992, cuando también se declaró ilegal la reproducción y distribución no autorizada de software con el fin de obtener ganancias [12]. Hasta hace muy poco, el término “piratería” se aplicaba sólo a la duplicación masiva con afán de lucro de copias impresas de textos, contenido audiovisual y software (copias realizadas en materiales físicos como papel, cinta magnetofónica o disco plástico). No fue hasta la adopción extendida de las nuevas tecnologías digitales y la Internet, a finales de los años noventa, que la industria comenzó a aplicar el término “piratería” a la práctica creciente de intercambio libre de música, y a llamar “piratas” a los individuos que participaban en el intercambio libre de información. El Congreso hizo lo mismo. Aunque fue debatida acaloradamente, en 1997 salió a la luz la Ley Contra el Robo No Electrónico (NET por sus siglas en inglés), que de hecho penalizó el empleo de obras registradas, independientemente de la intención con que se hiciera. Al dejar de considerarse el afán de lucro como una característica que define la “piratería”, la intención de compartir libremente el material ya no podría ser un pretexto para estar exonerado de una responsabilidad penal. La Ley de Derechos de Autor en el Milenio Digital (DMCA por sus siglas en inglés), promulgada en 1998 para acompasar la legislación norteamericana de propiedad intelectual con dos tratados de la Organización Mundial de la Propiedad Intelectual (OMPI) (el Tratado de Derecho de autor, de 1996, y el Tratado de Actuaciones y Fonogramas, de 1997), no solo materializó las expansiones antes mencionadas, sino también restringió aún más el desarrollo de tecnologías que pudieran significar un debilitamiento de los sistemas de protección del derecho de autor. No obstante, la diseminación libre de archivos estalló en la conciencia popular en 1999 con el conocido servicio de diseminación de archivos Napster. La historia norteamericana del derecho de autor, contada anteriormente, tuvo como telón de fondo el auge del desarrollo industrial norteamericano después de la II Guerra Mundial. Los procesos de investigación, producción y distribución surgidos como resultado de un complejo sólidamente construido entre la industria, la universidad y el ejército, proporcionaron a los Estados Unidos una creciente ventaja económica basada principalmente en la producción de nuevos conocimientos en los sectores claves (tecnologías médicas y científicas, farmacéutica, química, electrónica, informática, etcétera). Particularmente a lo largo de los últimos 60 años, el gobierno norteamericano reconoció que la producción del conocimiento era fundamental para su crecimiento económico y su seguridad nacional. Durante el mismo período, la propiedad del conocimiento pasó de manos de los individuos a las corporaciones, y estas últimas tuvieron cada vez más éxito al exigir la aplicación de las protecciones del monopolio. Después de la II Guerra Mundial, el mundo seguía siendo muy desigual en términos de la distribución del poder político y económico y, ciertamente, lo mismo ocurría con respecto a las llamadas industrias del conocimiento. En la década del setenta, las poderosas industrias del conocimiento dentro de los EE.UU. habían incorporado de forma exitosa sus intereses a la política exterior norteamericana: la cláusula “301 Especial” de la Ley de Comercio de Estados Unidos de 1974 creó un mecanismo para presionar a los gobiernos extranjeros a acatar la ley norteamericana de derechos de autor y de patentes, elaborando una lista que clasificaba a los países según su grado de infracción de “la propiedad intelectual” (“PI”). Ya en los años ochenta, EE.UU. había comenzado a tomar en serio su agenda de “PI” en el extranjero mediante acuerdos comerciales, que presionaban a los países a acatar y aplicar las normas norteamericanas de derecho de autor y de patentes como una condición para el comercio. A pesar del hecho de que el Convenio de Berna y otros acuerdos internacionales sobre “PI” concedieron excepciones a los países más pobres y a sus agendas de desarrollo, aquellos países que no respetaron, o se negaron a aceptar, la ley norteamericana de “PI”, o hicieron uso pleno de licencias reglamentarias [13] u otras excepciones, fueron llamados cada vez más “piratas de la propiedad intelectual”. Sin embargo, los años ochenta eran solo el comienzo de la relación entre la ley de comercio y la “PI”. Frustrado porque los organismos internacionales existentes no obligaban a los países a observar las leyes de la “PI”, y superado en número en los foros internacionales compuestos por delegados de nuevos Estados independientes, que antes eran colonias (por ejemplo, instituciones de la ONU como la OMPI y la UNESCO), Estados Unidos desarrolló una estrategia para trasladar la lucha sobre la “PI” a otra parte. Las industrias de derecho de autor (audiovisual), en coordinación con las industrias de patentes (química y farmacéutica, y cada vez más del software), lucharon durante décadas por crear un fuerte sistema mundial de “PI”. Después de una feroz batalla dentro de la OMPI (específicamente entre los gigantes de la industria del conocimiento, como EE.UU., Japón, Reino Unido y Alemania, contra la inmensa mayoría de los países en vías de desarrollo), la expansión del sistema de “PI” fue llevada a la fuerza a otro escenario. En 1996, el contenido y la intención del Convenio de Berna y de otros convenios de derecho de autor, patentes, y marcas registradas fueron suplantados en gran medida por el acuerdo de la Organización Mundial del Comercio (OMC) sobre aspectos de los derechos de propiedad intelectual relacionados con el comercio (ADPIC). El ADPIC ha demostrado ser una herramienta muy eficaz para obligar a los países en vías de desarrollo a adoptar un sistema de “PI” al estilo norteamericano, independientemente de que fuera o no por los mejores intereses de sus poblaciones, pues al incumplirlo se arriesgan a ser sometidos a sanciones comerciales. La OMPI quedó a la saga del ADPIC, pero continuó siendo parte importante de la armonización internacional de la ley de “PI”. A escala internacional, la campaña maximalista y anti-piratería de derecho de autor y de patente está ganando terreno rápidamente, sin una participación general en el debate y sin que el público conozca lo que está en riesgo. Los gobiernos de Japón, la UE [14], Australia e incluso algunos países en vías de desarrollo [15], están adoptando cada vez más los argumentos anti-piratería, que fueron desarrollados en un inicio por las industrias norteamericanas beneficiadas. El término “piratería” no solo se emplea en las negociaciones comerciales bilaterales, regionales (ALCA) e internacionales (OMC), sino también ha sido utilizado de forma generalizada por el gobierno norteamericano en las instituciones multilaterales. Esto ocurre especialmente en la OMPI, pero también dentro de la UNESCO y en el proceso de la Cumbre Mundial sobre la Sociedad de la Información (CMSI). Por ejemplo, la necesidad de combatir la “piratería” en línea (y el “ciberterrorismo”) es un puntal de la posición norteamericana en la CMSI, así como en la UNESCO durante las negociaciones sobre el anteproyecto de Convenio sobre la Protección y Promoción de Contenidos Artísticos y Expresiones Culturales [16]. Un criterio de evaluación: acceso al conocimiento Si se permite que continúen de forma descontrolada, los recientes acontecimientos de la ley de derechos de autor y de patente que amplían la definición y las sanciones por “piratería” traerán consigo serias implicaciones negativas para el fair use [17] y el dominio público, las tecnologías y las normas tecnológicas (por ejemplo, los requerimientos de los DRM), la educación y el área pública del conocimiento. Un movimiento creciente y diverso considera que el actual sistema de “propiedad intelectual” es una amenaza para la democratización de la educación, la participación cívica, la promoción de la expresión creativa y la protección de una herencia humana compartida de conocimiento y creatividad. Muchos plantean que el problema debe ser reformulado: en lugar de preguntar “¿qué hay de malo en la piratería?”, se podría preguntar “¿qué hay de malo en la “propiedad intelectual”?” Sería un eufemismo decir que existe un acalorado debate sobre el actual empleo en la industria del término “piratería”. Las “industrias del derecho de autor” (de la música, el cine y especialmente del software) emplean una definición sumamente amplia de “piratería” que incluye toda duplicación, distribución y uso de material registrado sin autorización, independientemente de si dicha duplicación es realizada: 1) por empresas profesionales, que realizan una duplicación a gran escala y revenden materiales con afán de lucro; 2) por proveedores de servicios que poseen herramientas de distribución de archivos; 3) por individuos que usan las redes de distribución de archivos para intercambiar materiales libremente; o incluso 4) por consumidores que sin saberlo se ven involucrados en la “piratería” al no comprender totalmente los términos de licencia de los productos que inicialmente compraron, por ejemplo cuando hacen algunas copias extras para uso personal o familiar [18]. Todos estos usos del término “piratería”, exceptuando el primero, son ampliaciones serias que no deben ser tomadas a la ligera. En parte debido a la expansión del término en la industria, los legisladores de la pasada década comenzaron a combinar la distribución gratis de contenidos con la reventa de material registrado, al punto de que la distribución de archivos prácticamente se ha convertido en sinónimo de “piratería” [19]. La propaganda de la industria (y del Estado) sobre la piratería dirigida a la opinión pública se basa en algunos puntos claves: primero, enfatizan en la vulnerabilidad del artista, el investigador o el programador, y el sufrimiento directo de los creadores originales en manos de los “piratas”; segundo, plantean que sin los beneficios económicos garantizados por una política fuerte de “propiedad intelectual” y una aplicación rigurosa, disminuiría la creatividad por falta de incentivos; tercero, afirman que las regulaciones débiles de la “propiedad intelectual”, particularmente en los países en vías de desarrollo, debilitan el “desarrollo”, impiden el sustento de los artistas locales y el crecimiento de la industria local, y amenazan el conocimiento local. Aunque la industria financia costosos estudios que generan cifras muy especulativas para apoyar esas afirmaciones, los resultados son problemáticos y no concluyentes [20]. Aun si se aceptaran las cifras de la industria sobre las “ganancias perdidas”, esas cifras siempre encubren la relación explotadora entre los titulares de los derechos corporativos y los productores originales. No resulta sorprendente que exista un debate dentro de la industria que rompe con las líneas de postura en la cadena de artículos de consumo. Los creadores, los editores, los presentadores, los publicistas, los vendedores minoristas, todos tienen diferentes intereses en juego. Incluso dentro de cada categoría existen intereses diferentes; por ejemplo, entre los artistas estrellas y la inmensa mayoría, entre las empresas titulares y las nuevas, entre los distribuidores con modelo comercial basado en la venta de productos físicos y los que se dedican a la distribución digital. Sin embargo, existe un marcado y creciente desacuerdo de los creadores que se resisten a la ofensiva industrial contra la “piratería” en su nombre. También existe una polémica pendiente con respecto a si las ganancias provenientes de las patentes y del derecho de autor son o no incentivos necesarios para la innovación. Hasta cierto punto, el debate está determinado por la dominación de la propaganda que describe las pérdidas por ventas potenciales (y, en última instancia, no se puede comparar una copia “pirateada” con una compra perdida). Ahora bien, afirmar que conferirles beneficios económicos a los titulares de los derechos de “propiedad” intangible es el método más eficaz de apoyar la labor intangible es una posición ideológica, no un hecho económico concreto. La manera economicista estrecha en que se ha conducido el debate margina la existencia de otras estrategias para el apoyo económico. La estimación de la escala de “piratería” es sumamente difícil aun cuando se concentre en la falsificación masiva de productos “duros” (casetes, CD, DVD). En lo referente a la “piratería” en línea, incluso la industria admite que sus mejores estimados son palos de ciego. Por ejemplo, en el momento en que se escribe este artículo, los analistas del tráfico de Internet consideran que un tercio de todo el tráfico de Internet lo ocupan los archivos bittorrent [21]. Se desconoce el porcentaje de tráfico de bittorrent compuesto por la distribución gratuita de archivos de material audiovisual y software registrados, pero probablemente sea alto. Si bien resulta difícil calcular la cantidad de archivos que se intercambian, es más difícil aún solucionar las aseveraciones contradictorias acerca de los impactos de la “piratería” en las ventas de la industria (¿representa cada archivo intercambiado un producto que realmente alguien quería comprar?), en la conducta del consumismo (¿estimula la frecuente distribución de archivos a las personas a que escuchen una música que de otra forma nunca hubieran podido escuchar, y en general las llevan a comprar más música?), y en los sustentos de los creadores (¿crean los músicos mayores bases de admiradores, atraen a mayores multitudes para disfrutar los espectáculos en vivo, y venden más productos debido a la libre distribución de archivos?). En lo referente al software, la “piratería” extendida puede en última instancia contribuir a un aumento de las ventas, aun cuando las perjudiquen a corto plazo. Esto se debe a que la “piratería” sirve para establecer una base de mercado para la explotación futura, y en algunos casos puede contribuir a la saturación casi monopolista del mercado. De hecho, esto es algo que los ejecutivos de Microsoft no han pasado por alto, y probablemente sea la causa de la reciente conducta “filantrópica” del gigante del software, particularmente ante la “amenaza” que representan los software libres de código abierto. El partenariado de mil millones de dólares entre Microsoft y el Programa de las Naciones Unidas para el Desarrollo, anunciada en el Foro Económico Mundial de 2004, constituye desde este punto de vista un esfuerzo para asegurar un segmento del mercado, al atrapar a los usuarios de los países en vías de desarrollo en los productos de Microsoft. La expectativa es que las actuales “pérdidas” (el costo real de la reproducción del software es casi cero) se compensen varias veces con las ventas a los futuros mercados compuestos por empresas y consumidores, una vez que estos sean asegurados por la globalización continua de un fuerte sistema de “PI” al estilo norteamericano. El mismo argumento puede aplicarse a la industria audiovisual, en el sentido de que el producto “pirata” en los países en vías de desarrollo sirve para crear una demanda local de contenido, así como de infraestructura para la distribución y el consumo. Una vez creada la demanda, comienza la presión para establecer una ley más estricta de “PI” y de “ofensiva contra la piratería”, y la industria recogerá los beneficios. A escala internacional, la industria ofrece cifras país por país que representan las pérdidas estimadas por piratería cada año, y las emplea para presionar a los países en vías de desarrollo en las negociaciones comerciales [22]. Los grupos de la industria, que ejercen presión a nombre de los gigantes titulares del derecho de autor y las patentes, plantean al gobierno norteamericano que el futuro de la hegemonía económica norteamericana será cada vez más dependiente de su dominio de la economía del conocimiento [23]. Las recomendaciones de las industrias del derecho de autor para las negociaciones internacionales son aceptadas, generalmente, casi al pie de la letra, y los países que aparecen en la lista tienen que cambiar sus leyes nacionales de derecho de autor y patentes o reciben sanciones comerciales. Para resumir lo planteado hasta aquí: los limitados monopolios del conocimiento protegidos por el Estado tenían originalmente la intención de promover la educación, las artes y las ciencias equilibrando un mecanismo de incentivo para los creadores originales con los derechos del público a acceder al conocimiento. Ahora, sin embargo, las grandes corporaciones son las dueñas de los monopolios del conocimiento, no los creadores originales; los términos del derecho de autor se han extendido hasta casi un siglo [24] después de la muerte del autor, y las sanciones por las infracciones son mayores que nunca antes. La creciente lista de “conocimiento” protegido ha llegado a incluir hasta nuestro propio código genético, e incluso organismos vivos completos. ¿Cuáles son los costos? Un daño incalculable a la innovación, la educación, las artes, las ciencias, al derecho de intercambiar información libremente, y, en el caso de las patentes de medicamentos, a las vidas humanas [25]. En el contexto de la creciente desigualdad económica, la estratificación del acceso al conocimiento a través de los mecanismos del mercado marginará aún más la pobreza. Los países en vías de desarrollo, junto a innumerables grupos de la “sociedad civil”, continúan planteando que el paquete de “PI” de nombres de marcas, patentes y derechos de autor, ofrecido a través de ADPIC, la OMPI o acuerdos comerciales bilaterales, no es más que un medio para que las firmas ya dominantes se conviertan en monopolios regionales y mundiales. Además, a pesar de un discurso bien elaborado sobre la necesidad especial de combatir la “piratería” audiovisual y otras formas de piratería en el mundo en vías de desarrollo, muchas personas plantean que los verdaderos piratas en el Sur son los biopiratas: las grandes empresas farmacéuticas y agrícolas del Norte que tratan de apoderarse de patentes de plantas medicinales y variedades de cultivos, “descubriendo” objetos que han sido desarrollados durante miles de años por los pueblos indígenas [26]. Reclamación del patrimonio común Muchos reconocen que el actual sistema proteccionista del derecho de autor y las patentes causa más daños que beneficios. Algunos países en vías de desarrollo se están organizando, para asegurar que el sistema de “PI” incluido en la agenda “ADPIC-plus” no sea del todo contrario a sus intereses. Bibliotecarios, científicos, artistas y muchos otros continúan organizándose para promover un amplio acceso público libre al conocimiento. La distribución de archivos ha aumentado vertiginosamente a pesar de los pleitos legales de la industria contra los usuarios finales. Históricamente, al menos en EE.UU., el Congreso y los tribunales se han opuesto a censurar completamente el desarrollo tecnológico para aplacar las demandas de la industria [27]. En el pasado, las llamadas actividades “piratas” lograron alcanzar la legitimidad legal (por ejemplo, el movimiento de radio “pirata” en EE.UU. trajo como resultado la legalización de estaciones FM de baja potencia). Al menos en algunos casos, la privacidad ha triunfado por encima de los intereses de la industria [28]. En el año 2004, la OMPI se vio forzada, por la presión de los países en vías de desarrollo y de la sociedad civil, a aceptar una revisión de sus actividades a la luz de los Objetivos de Desarrollo de las Naciones Unidas para el Milenio. Recientemente, Brasil adoptó Creative Commons como la licencia preestablecida para las grabaciones musicales, y el software de código abierto en todas las instituciones públicas. Estas y muchas otras técnicas, estrategias y movimientos alternativos se están desarrollando dentro y fuera del sistema actual de “propiedad intelectual”. Agenda para el desarrollo. En el caso de medicamentos esenciales, una importante victoria en la ronda de la OMC efectuada en Doha aseguró excepciones de los ADPIC para el otorgamiento obligatorio de licencias para medicamentos genéricos bajo ciertas condiciones. Ahora, los países que lucharon por la excepción de Doha están presionando fuertemente para reformar la OMPI de forma tal que la “PI” sea considerada como uno de los muchos mecanismos posibles para hacer llegar el conocimiento necesario a los países en vías de desarrollo, y no como un fin en sí mismo. Además, Brasil, China y una lista creciente de otros países en vías de desarrollo están movilizándose para adoptar el software de código abierto como norma en las instituciones públicas. Sus argumentos van desde la sostenibilidad económica, dado el alto costo de mantenimiento del software patentado, hasta la seguridad. En términos de “bienes” culturales, el Ministerio de Cultura Brasileño, encabezado por el músico y activista de la justicia social Gilberto Gil, propuso recientemente adoptar una licencia similar a la asignación y distribución no comercial de Creative Commons como la licencia preestablecida para las grabaciones musicales, basado en el argumento de que la disponibilidad de un patrimonio creativo común es esencial para el nuevo trabajo creativo. Además, algunos países en vías de desarrollo han aumentado la presión para instituir mecanismos legales internacionales para defenderse contra la “biopiratería” y para proteger a los pueblos indígenas contra la apropiación de su conocimiento tradicional y sus expresiones creativas a través de derechos de autor y patentes no validadas. Tratado de Acceso al Conocimiento. En febrero de 2005, una importante conferencia organizada en Ginebra por Consumer Project on Technology (CPTech), Third World Network (TWN) y la Federación Internacional de Asociaciones de Bibliotecarios (IFLA por sus siglas en inglés) contó con una gran participación de grupos de interés público, investigadores, académicos y diplomáticos para discutir la creación de un “Tratado de Acceso al Conocimiento”. Esta acción de la sociedad civil dio seguimiento a un reclamo de Argentina y Brasil a la OMPI de una “Agenda para el Desarrollo”. Esta conferencia “a2k” se centró en organizar estrategias y un potencial camino común a seguir: un tratado que equilibre mejor las necesidades de información de públicos diferentes con los intereses privados de los titulares del derecho de autor. Materialmente, el Tratado de Acceso al Conocimiento podría incluir excepciones y limitaciones a patentes y derecho de autor en áreas claves como la salud pública y la educación [29]. Movimiento de software libre/de código abierto. La difusión mundial del movimiento de software libre/de código abierto (F/LOSS por sus siglas en inglés) es uno de los ejemplos más importantes contra la cruzada anti-“piratería”. Miles de programadores consagran su tiempo a trabajar en software con código fuente abierto al público (código abierto), y en muchos casos de uso gratuito y patentado de forma que otros puedan desarrollarlo y mejorarlo, pero sólo bajo la condición de que su trabajo también sea gratuito y abierto (software libre). A medida que aumenta el éxito del software libre, los gigantes del software lo enfrentan en forma de una creciente presión para obtener patentes de software, algo ya común en los Estados Unidos y que está siendo sometido a consideración en la UE. Distribución de la música. Muchos músicos independientes plantean que, para la inmensa mayoría de los músicos que se ganan más la vida por las actuaciones en vivo que por el cobro de comisiones por derechos de autor sobre las grabaciones, la distribución gratis de la música a través de las redes de distribución de archivos no constituye una amenaza, sino una forma de publicidad gratuita y una manera de aumentar el número de admiradores. Otros promueven un modelo “shareware” de grabaciones de audio donde la distribución es gratuita, pero se insta a los admiradores a que donen una pequeña cantidad directamente al artista si disfrutan de la grabación [30]. Como todo el dinero va directamente al artista, incluso las pequeñas donaciones de los admiradores significan más para los músicos que el modelo de la industria, donde la inmensa mayoría de los precios desaparece a lo largo de una cadena de intermediarios. Tales actitudes hacia la distribución de archivos entre los creadores no son marginales: un reciente estudio realizado por Pew Internet y American Life sobre los músicos y artistas [31] concluyó que, aunque los artistas están divididos en sus actitudes con respecto a la distribución de archivos, la mayoría (2/3) no considera la Internet como una amenaza a su sustento, y una parte significativa considera que la distribución gratuita de archivos los ha ayudado en sus carreras. Redes punto a punto (P2P). La tecnología P2P reemplaza al modelo en el cual la información está hospedada en un único servidor que envía un archivo por usuario, por un modelo de red donde cada usuario puede recuperar la información compartida directamente desde las máquinas de cada uno de los otros usuarios. De esta manera, se optimiza el uso del ancho de banda y resulta más fácil descargar los archivos que realmente tienen una alta demanda (debido a que existen más copias disponibles y más máquinas que proporcionan acceso a ellos). Aunque las industrias audiovisuales están intentando convertir la tecnología P2P en sinónimo de “piratería”, la propia tecnología tiene una amplia gama de usos. La tecnología P2P ha permitido la comunicación descentralizada a comunidades, movimientos, grupos de interés, campañas, etcétera. Esta tecnología permite a los disidentes que viven bajo gobiernos represivos comunicarse entre sí y con el resto del mundo. Cada vez es mayor el número de personas que participa en lo que se ha dado en llamar “producción pública entre colegas”, donde la producción del conocimiento, de obras artísticas y de servicios se basa en recursos de dominio público y organizados por colegas. Sin embargo, la tecnología P2P está bajo la amenaza legal de la industria: en el momento en que se escribe este artículo, la Corte Suprema de los Estados Unidos está escuchando los argumentos sobre la tecnología P2P, y decidirá si se permitirá legalmente continuar desarrollándola. Una amplia gama de grupos de interés público se ha unido para defender la tecnología P2P e instar a la corte a que se apoye en el precedente establecido en el caso Betamax, que plantea que son los usuarios, y no las tecnologías, quienes infringen el derecho de autor [32]. Entretanto, el número de usuarios de P2P continúa creciendo. Publicación de libre acceso. Las bases de datos y archivos que son propiedad de revistas académicas, a las que ni siquiera muchas universidades de los Estados Unidos pueden permitirse el lujo de suscribirse, garantizan virtualmente que los países en vías de desarrollo no tengan acceso suficiente al conocimiento producido en ambientes con más financiamiento. Esta grave desigualdad impide a los países en vías de desarrollo acceder a un conocimiento que puede ser esencial para mejorar las condiciones locales, impide su participación en la investigación actual, y establece agendas de investigación según las prioridades de los países adinerados [33]. Sin embargo, existe una solución: la publicación libre, que básicamente pone a disposición artículos de revistas y otros materiales en línea sin costo alguno y sin restricción de acceso, ha estado creciendo espectacularmente. Existen numerosos modelos de cómo subvencionar la producción y evaluación por colegas, y un número creciente de agencias y fundaciones exigen o promueven el acceso gratuito en línea a las publicaciones resultantes de la investigación que ellos han ayudado a financiar [34]. Licencias alternativas. Están apareciendo varias formas de licencias alternativas, entre las que se encuentra la Licencia del Público General (GPL por sus siglas en inglés) bajo la cual tiene lugar el desarrollo de muchos software libres de código abierto, el copyleft y las licencias Creative Commons [35], que son una vía amigable al usuario para separar los derechos de autoría, de explotación y de duplicación. Por ejemplo, la licencia Creative Commons, similar a la asignación y distribución no comercial, significa que cualquiera puede usar libremente la obra protegida por la licencia, y puede incorporar fragmentos de ella en su propia obra. El que lo haga, debe dar crédito al autor de la obra protegida por la licencia y, lo más importante, debe licenciar su propia nueva obra bajo los mismos términos. Las licencias GPL, copyleft, y Creative Commons ayudan a generar un dominio público sólido. El futuro del conocimiento ¿Cuál será el futuro del conocimiento? El conocimiento, a diferencia de la mano de obra o la tierra, puede reproducirse infinitamente. El dinamismo del crecimiento creativo depende de su reproducción. Las leyes basadas en el principio de la escasez son absurdas en este contexto. La “tragedia del área pública”, un argumento empleado para justificar la delimitación de la tierra para garantizar el aumento de la producción, no se aplica al conocimiento. La privatización del conocimiento restringe la innovación y la productividad. Cuando los intereses corporativos patrocinados por el Estado continúan ampliando los términos de la propiedad sobre la creatividad humana, lo hacen a expensas del dominio público; entonces, ¿quién es el ladrón en la batalla por los límites de las áreas públicas del conocimiento? Esta batalla se está llevando a cabo en las instituciones políticas locales, nacionales, regionales e internacionales, y es un debate que ninguno de nosotros puede permitirse el lujo de ignorar. Notas y referencias [1] “[del griego] acometer, atacar, asaltar. Cf. Fr. pirate (1448 in Hatz.-Darm.), Es., Pt., It. pirata, Ne. piraat, De. Su. Da. pirat. 1. Alguien que roba y saquea en el mar, en ríos navegables, etc., o navega con ese propósito; alguien que practica la piratería; o es ladrón del mar. 2. transf. Barco utilizado para la piratería o tripulado por piratas; un barco pirata. 3. Cualquiera que se dedique al saqueo, que robe con violencia; un maleante, saqueador, usurpador. También fig. 4. fig. a. Alguien que reproduce sin permiso o se apropia, para su propio beneficio, de una composición literaria, artística, o musical, o de una idea o invención de otro, o, por lo general de cualquier cosa a la que no tenga derecho; específicamente alguien que usurpa el derecho de autor de otro. b. Alguien que recibe o transmite programas de radio sin tener licencia para ello. El empleo actual se refiere a las transmisiones radiales.” Tomado de Oxford English Dictionary (1989). OED Online. Oxford University Press. 21 de marzo de 2005. http://dictionary.oed.com/cgi/entry... [2] Risso, Patricia (2001): “Cross-Cultural Perceptions of Piracy: Maritime Violence in the Western Indian Ocean and Persian Gulf Region during a Long Eighteenth Century,” Journal of World History - Volumen 12, Número 2, Otoño de 2001, pp. 293-319. University of Hawaii Press. [3] Por ejemplo, ver la descripción de Risso (2001), de un Kanhoji del siglo XVII, un “pirata” para los británicos, enemigo del estado Mogol, pero para otros un campeón de la resistencia india; o de William Kidd, “pirata” para la Compañía Británica de las Indias Orientales, autoproclamado “corsario” al servicio de la corona, y agresor europeo para los Mogoles. [4] Ley de Derecho de autor, 31 de mayo de 1970, sección 5. Vea Paltry, William F. (1994): “Copyright Law and Practice.” The Bureau of National Affairs, Inc., 1994: 33. http://digital-law-online.info/patr... [5] “Los Estados Unidos se destacaron con respecto a países como Francia, donde el Decreto de 1852 de Luis Napoleón prohibía la falsificación de documentos nacionales y extranjeros. Otros países que eran afectados por la piratería norteamericana tomaron represalias al rechazar el derecho de autor de los norteamericanos. A pesar de la presión de numerosos autores y celebridades a ambos lados del Atlántico, las leyes norteamericanas de derecho de autor no permitieron proteger el derecho de autor de documentos extranjeros durante todo un siglo.” Khan, B. Zorina (2002): “Intellectual Property and Economic Development: Lessons from American and European History.” Comisión sobre los Derechos de la Propiedad Intelectual.http://www.iprcommission.org/papers... [6] Ibid. [7] Las personificaciones originales del derecho de autor fueron mucho más protectoras de los intereses del público que de los monopolios de los titulares de los derechos. Vaidhyanathan, Siva (2001): Copyrights and copywrongs: the rise of intellectual property and how it threatens creativity. Nueva York: New York University Press. Boyle, James (2003): “The second enclosure movement and the construction of the public domain.” Law and Contemporary Problems, Enero de 2003. http://www.law.duke.edu/journals/lc... [8] Vea las páginas sobre derecho de autor y fair use en Stanford University Libraries: http://fairuse.stanford.edu/index.html [9] Chesterman, John, y Andy Libman (1988): The Electronic pirates: DIY crime of the century. Londres: Comedia Books. [10] Por ejemplo en el “caso Betamax” de 1984, la Corte Suprema de los Estados Unidos confirmó el derecho de la Sony a vender equipos de grabación de videos para el hogar. Sony Corp. v. Universal City Studios (1984): 464 U.S. 417, 104 S. Ct. 774, 78 L. Ed. 2D 574. http://www.eff.org/legal/cases/sony... [11] Harvard Law Review (1999): “The criminalization of copyright infringement in the digital era.” Harvard Law Review, 112(7): 1705-1722. Recuperado el 20 de marzo de 2005 de la base de datos Academic Universe/Lexis-Nexis. [12] Ibid. [13] « Una licencia compulsoria es una licencia para emplear una patente, un derecho de autor u otro derecho exclusivo mediante la cual un gobierno obliga a su titular a concederla a otros. Ejemplos en la ley de patentes: Las licencias de patente compulsoria constituyen una flexibilidad de los requisitos de patentes otorgada a los gobiernos durante la Cuarta Conferencia Ministerial del Tratado de la Organización Mundial de Comercio en el año 2001 para satisfacer necesidades emergentes de productos patentados (como los medicamentos que salvan vidas). Los gobiernos tienen derecho de decidir qué constituye una situación de emergencia en su país. » http://en.wikipedia.org/wiki/Compul... [14] En los países ricos, el empleo del término “piratería”, aplicado a la distribución de archivos por Internet, ha estado encabezado principalmente por la industria norteamericana y, por extensión, por el gobierno de los Estados Unidos. Los países de la UE estaban algo divididos, por un lado, con respecto al acuerdo general sobre la necesidad de fortalecer el sistema de PI y, por otro lado, a la resistencia frente a algunos aspectos de la ley norteamericana de PI. Por ejemplo, en estos momentos está teniendo lugar en la UE una encarnizada batalla que perdura desde el año 2004/2005 sobre si extender o no las patentes a los software. Finalmente el Parlamento Europeo decidió declinar la patentabilidad del software. En la actualidad también existe una propuesta para una Directiva europea sobre la Piratería. [15] Por ejemplo, durante las negociaciones de la UNESCO, la delegación de Benin planteó que el tema de la piratería debía ser incluido, debido a que esto contribuiría a proteger “a los famélicos músicos africanos que no pueden alimentarse debido a la piratería”, la delegación de Kenya tuvo una postura similar. Media Trade Monitor (2005). UNESCO intergovernmental session II, Fourth Day: Thursday, February 3, 2005. http://www.mediatrademonitor.org/no... [16] Vea las posiciones del Departamento de Estado de los Estados Unidos con respecto a la CMSI en http://www.estate.gov/e/eb/cip/WSIS/; y vea http://www.mediatrademonitor.org para una actualización detallada de las posiciones de los Estados Unidos con respecto a la “piratería” durante las recientes negociaciones en la UNESCO. [17] “La doctrina de uso razonable es un aspecto de la ley del derecho de autor de Estados Unidos que permite la cita o incorporación legal o ilegal de material protegido por el derecho de autor en el trabajo de otros autores, teniendo en cuenta ciertas condiciones específicas. (...) El uso razonable pone a disposición del público los trabajos protegidos por el derecho de autor como materia prima sin que sea necesario un permiso o una autorización para su reproducción, siempre y cuando el uso libre sirva más a los propósitos de la ley de derecho de autor, que la Constitución de los Estados Unidos define como la promoción del “Progreso de la Ciencia y las Artes aplicables” (I.1.8), que a la aplicación legal de reclamaciones por infracción. Por tanto, la doctrina intenta equilibrar los intereses individuales de los titulares del derecho de autor con los beneficios sociales o culturales que traen consigo la creación y la distribución de los trabajos derivados” http://en.wikipedia.org/wiki/Fair_use En Europa, el “derecho a la copia privada”, a pesar de que se basa en un enfoque jurídico totalmente diferente, desempeña un papel similar en el intento de establecer un equilibrio entre los diferentes intereses de las partes implicadas. [18] Vea, por ejemplo, las actuales definiciones del término “piratería” que utilizan las industrias del software, del cine, y de las grabaciones: Software and Information Industry Alliance (2005): “What is Piracy?” SIAA. http://www.siia.net/piracy/whatis.asp ; Motion Picture Association of America (2005): “Anti-Piracy.” MPAA. http://www.mpaa.org/anti-piracy/ ; Recording Industry Association of America (2005): “Anti-Piracy.” RIAA. http://www.riaa.com/issues/piracy/d... [19] Vea en particular los debates sobre la Ley Contra el Robo No Electrónico de 1997, que penalizó la diseminación de archivos musicales aun cuando no fuera con fines de lucro (Goldman, Eric (2003): “A Road to No Warez: The No Electronic Theft Act and Criminal Copyright Infringement. “Oregon Law Review, Vol, 82. http://ssrn.com/abstract=520122), y la Ley de Derecho de Autor del Milenio Digital de 1998, que concedió a los titulares de la propiedad intelectual el derecho a retirar el uso razonable y otros derechos relacionados del público para proteger un esquema comercial de “gestión de los derechos digitales”, e interferir el funcionamiento legítimo de los sistemas de distribución de archivos punto a punto. Probablemente la DMCA sea “inconstitucional” (Electronic Frontier Foundation, 2005 “Digital Millennium Copyright Act (DMCA) Archive.” http://www.eff.org/IP/DMCA/). [20] Existen algunas evidencias, principalmente patrocinadas por la industria, de que la distribución de archivos perjudica las ventas de música. Para una lista de enlaces a los estudios (principalmente patrocinados por la industria) en los que aparece este planteamiento, vea European Audiovisual Observatory, 2005 “Report and Studies of the Economic and Sociological Dimension of Peer-to-Peer.”, http://www.obs.coe.int/db/gavis/piracy.html#3>. Sin embargo, esto se contradice con estudios recientes que han hallado una fuerte evidencia de que la distribución de archivos no tiene un impacto estadístico, o de que quizás incluso aumenta las ventas de música, según Oberholzer y Strumpf (2004) quienes concluyeron que el impacto de la distribución de archivos en las ventas de música era “estadísticamente indistinguible de cero.” Oberholzer, Félix, y Koleman Strumpf (2004). “The Effect of Filesharing on Record Sales: an Empirical Analysis.” http://www.unc.edu/ cigar/papers/Fi... [21] Bittorrent es un programa de distribución de archivos punto a punto muy popular http://www.bittorrent.com. CacheLogic (2004). “The True Picture of Peer to Peer Filesharing.” CacheLogic. http://www.cachelogic.com/research/... [22] Vea el sitio Web de la Alianza Internacional de Propiedad Intelectual (http://www.iipa.com) para los estimados anuales de las “pérdidas como consecuencia de la piratería”, así como la metodología empleada para “calcular” estas cifras y las sugerencias de la coalición industrial al USTR (por ejemplo, “2005 Special 301 Report on Global Copyright Protection and Enforcement.” IIPA. http://www.iipa.com/special301_TOCs.... La IIPA es una coalición de la Asociación de Editores Estadounidenses (AAP), la Alianza de Software Comercial (BSA), la Asociación de Software de Entretenimiento (ESA), la Alianza de Cine y Televisión Independientes (IFTA), la Asociación Cinematográfica Estadounidense (MPAA), y la Asociación Estadounidense de la Industria Discográfica (RIAA). [23] El Informe anual de 2004 de la Alianza de Propiedad Intelectual Internacional (IIPA), titulado “Industrias del Derecho de Autor en la Economía norteamericana,” proporciona datos que indican la importancia de estas industrias para el bienestar económico de los EE.UU. (http://www.iipa.com/pdf/2004_SIWEK_...). Pero la IIPA no se detuvo ahí: cada año, la organización presenta sus datos junto con recomendaciones al Representante de Comercio de los Estados Unidos (USTR) para la actualización anual de la lista “Special 301”. [24] En Europa, el término es de 70 años después de la muerte del autor. [25] Para más información sobre los costos de un régimen maximalista derecho de autor y de patente, vea el trabajo de Lawrence Lessig (The Future of Ideas: The Fate of the Commons in a Connected World. Nueva York: Random House), Siva Vaidhyanathan (op. cit), Peter Drahos y John Braithwaite (Information Feudalism: Who Owns The Knowledge Economy? Londres: Earthscan. 2001), y James Boyle (op.cit.), entre otros. [26] Por ejemplo, la India ha luchado en contra de patentar las plantas y otros organismos vivos, aunque los ADPIC requieren que esas formas de vida sean patentables (éste fue un problema muy polémico en la historia de la Ley Norteamericana de Patentes). La India obtuvo una victoria en la Oficina de Patente de la UE sobre un intento del Departamento de Agricultura de los Estados Unidos y la empresa WR Grace para patentar el acederaque que había sido empleado durante mucho tiempo en aplicaciones medicinales y fungicidas y no se consideraba de ninguna forma como producto novedoso “descubierto” por WR Grace o el Departamento de Agricultura de los Estados Unidos. Está aumentando la conciencia sobre los riesgos que representa el nuevo sistema de “PI” para los conocimientos tradicionales de todo tipo. La pregunta es, ¿será posible convencer a los países de que el propio sistema de “PI” no es necesario para “proteger” el conocimiento tradicional? ¿Puede permanecer así el conocimiento local en el dominio público? Y entonces, ¿cuáles son los mecanismos que permitirían al conocimiento tradicional o público seguirlo siendo, sin que siga vulnerable a la piratería corporativa? Algunas lecturas sobre la biopiratería: Merson J., “Bioprospecting or bio-piracy: intellectual property rights and biodiversity in a colonial and postcolonial context”: Osiris. 2000; 15: 282-96 Posey DA., “Commodification of the sacred through intellectual property rights”, J Ethnopharmacol, noviembre de 2002; 83(1-2):3-12. Timmermans K., “Intellectual property rights and traditional medicine: policy dilemmas at the interface.” Soc Sci Med, agosto de 2003; 57(4):745-56. [27] Por ejemplo en 1984 en el “caso Betamax,” el Tribunal Supremo de los Estados Unidos defendió el derecho de la Sony a vender equipos de video para el hogar (la decisión del Tribunal Supremo en Sony v. Universal Studios 464 U.S. 417, 1984). [28] Vea el archivo del caso RIAA vs. Verizon: http://www.eff.org/legal/cases/RIAA... [29] Para más información sobre la Agenda para el Desarrollo de la OMPI, vea, http://www.cptech.org/ip/wipo/geneva declaration.html Para más información sobre el Tratado de Acceso al Conocimiento: http://www.cptech.org/a2k/ [30] Los artistas independientes están creando de forma activa sistemas para el pago directo de los fanáticos a los músicos, tanto en el terreno como a escala política. Vea “The Future of Music Coalition in the US”: http://www.futureofmusic.org [31] Pew Internet y American Life Project (2004): “Artists, Musicians, and the Internet.” http://www.pewinternet.org/PPF/ r/142/report_display.asp [32] Para más información sobre MGM vs Grokster. Vea http://www.eff.org/IP/P2P/MGM_v_Gro... [33] Para más información vea People’s Health Movement http://www.phmovement.org y Médicos Sin Fronteras http://www.msf.org [34] Vea la Biblioteca Pública de Ciencia: http://www.plos.org En teoría, se podría pensar que cualquier investigación financiada con dinero público es de dominio público. Según el Instituto Nacional de Salud (NIH, EE.UU.), muchas organizaciones públicas del mundo están apoyando el acceso público a las publicaciones científicas. [35] Crative Commons: http://www.creativecommons.org Liang, Lawrence, “A Guide to Open Content Licenses”, Media Design Research, PZI Rotterdam 2004, http://pzwart.wdka.hro.nl/mdr/resea..., Critique of Creative Commons from Meta Mute: http://tinyurl.com/3pm2j Software libre Marcelo D’Elia Branco Vivimos en un período histórico conocido como la “era de la información”. En esta fase del desarrollo capitalista convivimos con una revolución tecnológica que tiene como elemento central la tecnología de la información y de la comunicación. La revolución digital o la sociedad de la información es el resultado de estímulos contradictorios provocados, por un lado, por los grandes intereses del capitalismo internacional en viabilizar la llamada globalización de la economía y, por otro lado, por la capacidad creativa y el espíritu libertario de los hackers. Los hackers fueron quienes crearon prácticamente todo lo que hace que Internet funcione, en la mayoría de los casos en forma voluntaria. Los protocolos TCP/IP [1], WWW (world wide web)[2], DNS[3], DHCP[4], FTP[5] y el e-mail fueron desarrollados por hackers y colocados para el uso libre de toda la humanidad. El desarrollo de Internet es el más grande ejemplo de la capacidad de innovación de las tecnologías libres. También fueron los hackers quienes, en los años 80, iniciaron la creación del “Movimiento Software Libre”. Sin embargo, en el transcurso de la década de los 90 se inició una reacción de las grandes corporaciones transnacionales, con la perspectiva de apropriarse y controlar toda la tecnología desarrollada. Importantes inversiones del llamado “capital de riesgo” especulativo y el peso de estas megacorporaciones fueron arriesgados en esta estrategia y, contradictoriamente, contribuyeron decisivamente a la expansión de la Red Mundial y a la consolidación de la revolución digital. No obstante, Internet mantiene hasta hoy su carácter original: libre, descentralizada, multifuncional y, hasta el momento, no puede ser controlada, convirtiéndose entonces en un “espacio de debate”. Por un lado, los poderosos intereses políticos, financieros y comerciales que pretenden que su función principal sea la de vigilar, controlar, anunciar y vender. Por el otro lado, los intereses ciudadanos y democráticos que aspiran convertir Internet en un instrumento al servicio de la democracia, del desarrollo sustentable, de la innovación, de la ciencia, de la cultura, de la educación y de la salud. Uno de los elementos clave de este debate es el control por el lenguaje del siglo XXI: el código fuente. Las corporaciones monopolistas desean “controlar” la innovación tecnológica a través de la restricción de estos códigos, atesorando los programas de computadoras como sus propiedades y haciendo suyas las obras intelectuales y culturales (música, películas, libros). Por otro lado, el movimiento por la libertad del conocimiento y el movimiento software libre, que están liberando el conocimiento aprisionado por los verdaderos “piratas”, apuestan en la evolución y en la innovación como una forma de socialización de los beneficios de la revolución digital. Historia del software libre “En el campo concreto de la informática, desde los años 80 se ha reproducido un fenómeno antiguo: el conocimiento, transmitido mediante un código de lenguaje escrito, está siendo guardado celosamente por individuos que lo utilizan para mantener una estructura de poder a lo largo de los siglos. En los años 60 y 70, el desarrollo de la informática se debió, en parte, a que los técnicos compartían su conocimiento. Los códigos de los programas de computadoras eran compartidos, de manera que los avances de uno eran utilizados por otros para mejorar dicho programa. Actualmente, la gran parte de las aplicaciones de informática que utilizamos tienen su código oculto, pertenecen a sus propietarios, por eso no podemos copiarlas y tampoco compartir su desarrollo. Solo ellos, los propietarios, pueden modificarlas, mejorarlas. Si les interesa, por supuesto”.[6] El alto precio de los software utilizados en las computadoras y el bloqueo del libre conocimiento científico y tecnológico impuesto por las licencias propietarias han dificultado e inclusive impedido que algunas regiones del planeta se beneficien de esa revolución para proporcionar una mejor calidad de vida a sus habitantes. Cuando Richard Stallman [7](RMS) comenzó a trabajar en el Laboratório de Inteligencia Artificial del MIT, en 1971, se incorporó a una comunidad que ya compartía software y que tenía muchos años de existencia. Según RMS, “el acto de compartir software no estaba restringido a esta comunidad en particular; es tan antiguo como las computadoras”. Al principio esta comunidad no denominaba a estos programas como “software libre” pues, según RMS, este término no existía. El concepto de software libre surgió durante los años 70, en los Estados Unidos, especificamente en los laboratórios del MIT -Massachusetts Institute of Technology[8] Richard Stallman no recuerda con exactitud en qué momento fue adoptado este término, sin embargo, “este término ya era corriente en el MIT” cuando fue lanzado, en 1984, el Manifiesto GNU [9] que dio origen al Movimiento Software Libre. La(s) autoría(s) del término también es desconocida, no obstante ganó gran significado y notoriedad gracias a Richard Stallman quien lo utilizó desde el inicio, con el lanzamiento del Movimiento Software Libre. Algunos motivos para el uso del software libre Razón macro-económica Brasil, por ejemplo, transfiere al exterior, anualmente, más de un millardo de dólares en pagos de licencias de software, en un mercado interno que mueve anualmente tres millardos de dólares. Esto significa que un tercio de lo que mueve la industria del software en el Brasil es transferido, en forma de pagos de royalties, a las mega-empresas monopolistas de software del extranjero. Esa realidad, además de significar un aumento del déficit en la balanza internacional de servicios, inviabiliza el desarrollo de las empresas de informática en el Brasil. Brasil, por ejemplo, apenas tiene el 8,6% de la población con conexión a Internet en la casa y, conforme datos oficiales, más del 53% de esos usuarios utilizan software ilegal - sin autorización de los propietarios. Por lo tanto, son considerados criminales según las leyes de propiedad intelectual. Para poder mentener el actual “mercado legal” de software, que alcanza apenas el 4% de la población brasileña, tenemos que transferir al exterior más del doble del presupuesto anual del programa “Fome Zero” (Hambre Cero) [10] en un país en el cual 22 millones de personas pasan hambre y 44 millones - 1/3 de la población - viven por debajo de la línea de pobreza. No se justifica para los países en desarrollo adoptar el modelo de software privativo en los programas de la Sociedad de la Información. Seguridad y confidencialidad de la información Las cuestiones de la seguridad y de la confidencialidad también son factores importantes para la escogencia del software libre. Una plataforma tecnológica debe garantizar la seguridad en los sistemas de información y la confidencialidad de los datos de los usuarios. Para que esto ocurra es imprescindible el acceso al código fuente de los programas. Sin el código fuente es imposible verificar si los programas hacen solamente aquello que el fabricante dice que hacen, o si en verdad hay una “puerta trasera” violando la confidencialidad de la información. Igualmente, sin el código fuente se hace imposible corregir las fallas en el programa sin recurrir al fabricante propietario. Autonomía e independencia tecnológica El principal capital de la revolución digital y de la Sociedad de la Información es justamente el conocimiento digital. Esto implica que los excluidos digitales son aquellos que no tienen acceso al conocimiento digital. ¿Cómo pensar en la inclusión de cualquier país en la sociedad del conocimiento sin que las universidades, escuelas, empresas, centros de búsqueda, gobiernos y sociedad tengan conocimiento pleno de la tecnología que se está difundiendo? Por lo tanto, cualquier programa de inclusión digital o de inserción en la Sociedad de la Información sólo es consistente si es realizado con software libre. Programas de inclusión digital, realizados con software secreto y privativo son, en verdad, programas de “exclusión” del conocimiento digital. No queremos ser solamente consumidores de productos y de tecnologías propietarias. Los países y sus habitantes tienen el derecho a ser sujetos activos en la Sociedad de la Información. Independencia de los proveedores Tenemos el derecho a conocer lo que estamos utilizando o comprando. Las dependencias tecnológicas causadas por las plataformas propietarias inhiben la competitividad, imposibilitan el conocimiento sobre el contenido del producto adquirido y crean una exclusividad de mercado a la empresa que vendió al consumidor. El software libre da más independencia en relación al proveedor de soluciones. El individuo que utiliza una solución de software libre tiene acceso al código fuente y a las cuatro libertades básicas del software libre. De esta manera, al tener el código fuente, no está supeditado al que desarrolló la solución original. La utilización de software privativo es lo mismo, por ejemplo, que utilizar un medicamento sin tener el derecho a conocer la fórmula química. O aún, comprar alimentos industrializados sin tener el derecho a conocer de qué están hechos. Conocimiento compartido Para que los países menos desarrollados o en vías de desarrollo tengan la oportunidad de superar una etapa histórica de dependencia y subordinación en el escenario mundial, las actuales leyes y tratados internacionales de patentes, copyright y marcas, protegidas por la ideología de la propiedad intelectual, necesitan ser alteradas y flexibilizadas. Históricamente, el discurso de la ideología de la propiedad intelectual se estableció para favorecer la libertad de creación, para estimular a los inventores y para promover los beneficios para la sociedad. Hoy se ha convertido en un mercado exclusivo de los países desarrollados y sus monopolios. Alternativas como las licencias “copyleft”[11], GPL - General Public License[12] y Creative Commons [13] trabajan con la expectativa de la libertad y del conocimiento compartido, dando un sentido positivo y actual, sintonizado con las nuevas posibilidades creadas por la revolución digital. Desafíos y perspectivas del software libre El software libre, a pesar de haber sido creado e inspirado en los conceptos libertarios de los hackers es, más allá de todo, una tecnología. El software libre como tecnología no es algo de izquierda o incompatible con el capitalismo. Según Manuel Castells [14], “el software libre es incompatible con las corporaciones monopolistas, como Microsoft. Es también incompatible con gobiernos represivos que quieren controlar la libertad, sean de derecha o de izquierda. Sin embargo, no es incompatible con IBM, e IBM no es un órgano revolucionario mundial. Ni tampoco es incompatible con gobiernos democráticos que quieren desarrollar la creatividad de los jóvenes. No obstante, yo no compararía el software libre con la izquierda pues es algo mucho más amplio. Sus valores son valores de transformación social y creo que más próximos del anarquismo. Las ideas que están por detrás del software libre creo que son antiautoritarias y de libertad. Para mí, esas ideas son revolucionarias. Sin embargo, cabe una diferenciación de la expresión política organizada de izquierda. El movimiento software libre es más amplio que el movimiento anticapitalista y puede encontrar aliados en el capitalismo. Existen en común las ideas de libertad y ellos están dispuestos a aceptarlas. Esto es, en el fondo, muy revolucionario, pues los grandes poderes mundiales no están dispuestos a aceptar la libertad.”[15]. Es importante destacar que no todos los millones de hackers que desarrollan software lo hacen por ideología o como una acción libertaria consciente. La mayoría de ellos tampoco son activistas sociales, son “técnicos benevolos” que respetan los principios de las licencias y el conocimiento compartido, que tanto pueden estar al servicio de las grandes corporaciones globales como de las organizaciones sociales “alter-globales” que desean construir un “otro mundo posible”, inspiradas por el movimiento del Forum Social Mundial.[16]. También es verdad que la gran mayoría de las organizaciones sociales y casi la totalidad de los partidos de izquierda aún no han incorporado en sus programas de lucha y en su práctica cotidiana los desafíos de la “Era de la Información”. De acuerdo con el Ministro de la Cultura y músico brasileño Gilberto Gil[17], al hablar sobre su experiencia en el 5° Forum Social Mundial, “una de esas contradicciones es la convivencia cotidiana entre el más arcaico discurso político, la más bizantina forma y el más bizantino contenido, la más antigua y superada agenda, la más antigua y superada actitud y, las formas contemporáneas, los contenidos, las agendas y las actitudes más sintonizadas con nuestro tiempo. La convivencia entre lo analógico y lo digital, entre la hoz y el martillo y los flujos virtuales. Existe espacio y probablemente sentido en todo esto, quizás porque el impulso básico del cambio, de la transformación y del progreso esté, o haya estado un día, en la génesis de todos los movimientos de crítica al orden establecido y de construcción de nuevos órdenes. El impulso fundamental de superación, de aventura y de peregrinación que se hizo y se hace presente en cada paso adelante de la humanidad. Las personas y las organizaciones que constituyen el Forum Social Mundial tienen, por lo tanto, una base en común, aunque las fallas, las visiones, los métodos y las prácticas sean diferentes. Aquí está lo que explica la convivencia pacífica y estimulante entre agendas tan dispares, por ejemplo, como la agenda de este encuentro, sobre la revolución digital y las nuevas redes y las agendas de los partidos marxistas tradicionales.” [18] Para nosotros, que deseamos y luchamos para construir una nueva Sociedad de la Información más justa y solidaria, el principal desafío es el de extrapolar el universo de ese debate más allá de la esfera selecta del “people de la information society” y sensibilizar a las organizaciones sociales que luchan por cambios estructurales en el planeta a actualizar sus discursos, prácticas y programas políticos, incorporando los temas de la revolución digital al siglo XXI con la prioridad adecuada. De no ser posible realizar esta tarea, los programas o software y el propio movimiento software libre serán incorporados por el capitalismo globalizado y las prácticas transformadoras de este movimiento desaparecerán al poco tiempo. Una “Nueva Sociedad de la Información es Posible”, aunque eso no está garantizado como un curso único de la historia. Dependerá del resultado de los diversos debates que tendremos en adelante y, por lo tanto, de nuestra capacidad de ampliación de las tesis y prácticas libertarias del software libre con la sociedad global. Anexo: Definiciones de Software Libre y Fuente Abierta El origen del término “Free Software” viene de la lengua Inglesa y como en este idioma free significa libre de freedom (libertad) y también significa gratuito, muchos errores de interpretación de su verdadero significado acompañan la historia. El término software libre aplicado correctamente se refiere a “libre” de libertad y no tiene nada que ver con el precio o con la gratuitidad. Un software libre puede ser distribuído gratuitamente, pero también puede tener un costo. No existe contradicción entre software libre y software comercial. La contradicción está entre el software libre y el software privativo [19], que son conceptos opuestos. Un software libre, por definición de la “Free Software Foundation” [20], debe tener necesariamente las cuatro libertades fundamentales: “Software Libre” es una cuestión de libertad y no de precio. Para entender el concepto debe pensar en “libertad de expresión” y no en “cerveza gratis”. “Software libre” se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar y perfeccionar el software. Más exactamente se refiere a las cuatro libertades del software para los usuarios: La libertad de ejecutar el programa para cualquier propósito (libertad no. 0); La libertad de estudiar cómo funciona el programa y adaptarlo a sus necesidades (libertad no. 1). El acceso al código fuente es un pre-requisito para esta libertad; La libertad de redistribuir copias de manera que se pueda ayudar al prójimo (libertad no. 2); La libertad de perfeccionar el programa y divulgar esas mejoras de manera que toda la comunidad se beneficie (libertad n° 3). El acceso al código fuente es un pre-requisito para esta libertad. Un programa es software libre cuando los usuarios tienen todas estas libertades. Por lo tanto, usted debe ser libre de redistribuir copias, sea con o sin modificaciones, sea gratuitamente o cobrando una tasa por la distribución, para cualquier persona en cualquier lugar. Ser libre para hacer esas cosas significa (entre otras cosas) que usted no tiene que pedir o pagar por la autorización. Usted debe también tener la libertad de hacer modificaciones y usarlas exclusivamente en su trabajo o en sus momentos de ocio, sin siquiera mencionar que ellas existen. Si usted publica las modificaciones no puede ser obligado a avisarle a alguien en particular o de ningún modo en especial. La libertad de utilizar un programa significa tener libertad para cualquier tipo de persona física o jurídica de utilizar el software en cualquier tipo de sistema informático, para cualquier tipo de trabajo o actividad, sin que sea necesario comunicarle al desarrollador o a cualquier otra entidad en especial. La libertad de redistribuir copias debe incluir formas binarias o ejecutables del programa, así como el código fuente, tanto para las versiones originales como para las modificadas. Está todo bien si no es posible producir una forma binaria o ejecutable (pues algunos lenguajes de programación no soportan este recurso), pero debe ser concedida la libertad de redistribuir esas formas en caso que sea desarrollado un medio para crearlas. Para que la libertad de hacer modificaciones y de publicar versiones perfeccionadas tenga algún significado, se debe tener acceso al código fuente del programa. Por lo tanto, el acceso al código fuente es una condición necesaria para el software libre”. [21] El término “Open Source” o “código abierto” fue descrito por primera vez en junio de 1997, por Bruce Perens [22], en un documento para la conferencia de desarrolladores Debian [23] de ese año. En esa oportunidad, Perens suprimió las referencias originales de los documentos para crear la “Definición de Fuente Abierta” [24]. Más tarde, en 1998, algunos miembros de la comunidad software libre lanzaron la “Iniciativa de Fuente Abierta” - Open Source Initiative (OSI)[25]. Actualmente, el liderazgo del movimiento software libre y del movimiento de fuente abierta representa movimientos separados que se diferencian en la filosofía y en la política. Así describan programas de computadoras de igual categoría, los presentan de forma diferente. Uno de los argumentos utilizados por los líderes del OSI es que el término “código abierto” elimina la confusión de “free” como “gratis”. Esta iniciativa busca ser más atractiva para los ejecutivos del mercado y para las grandes empresas comerciales de programas de computadoras. Los argumentos se centran en las cuestiones tecnológicas, en la calidad del producto y en las posibilidades de la economía generada por el software libre, dejando de lado los principios de libertad y ética construidos desde el inicio por la comunidad del software libre. Este movimiento se expresa de forma más importante en los Estados Unidos y no tiene mucha expresión en otros lugares del mundo. El término “código abierto” fuera de la lengua inglesa es mucho menos amplio, y de significado y comprensión compleja fuera de la comunidad técnica, que el término “software libre”. Conceptos relacionados El término software libre es muchas veces confundido o mencionado con otras categorías de software. Para fines de aclaración, será necesario describir las similitudes y diferencias de estas otras categorías en relación al software libre: [26] Domínio Público - El software de domínio público no está protegido por copyright. Cualquier persona puede hacer una versión modificada o una copia no-libre (privativa), a partir del programa original. Un software libre no es conceptualmente un software de domínio público. Software Semilibre - Software semilibre no es un programa totalmente libre. Viene con autorización para ser utilizado, copiado, distribuido y modificado (incluyendo la distribución de versiones modificadas), pero solamente para fines no comerciales. Software Privativo - Software privativo es aquel que no es libre ni semilibre. Su uso, redistribución o modificación está prohibida o requiere que usted solicite autorización o está restringida de tal forma que usted no puede hacerla libre de un modo efectivo. Software Freeware - El término “freeware’’ no posee una definición clara y aceptada. Es muy usado para paquetes que permiten la redistribución pero no la modificación (y su código fuente no está disponible). Estos programas no son software libres. Software Shareware - Shareware es el software que viene con autorización para redistribuir copias, pero después de un tiempo determinado para continuar usando una copia debe pagarse la licencia. Shareware no es software libre ni semilibre, pues en su mayoría el código fuente no está disponible y no viene con autorización de copia para nuevas instalaciones sin previo pago de licencia. Software Comercial -Software comercial es aquel desarrollado por una empresa que aspira lucrarse a través del uso del mismo. “Comercial” y “Privativo” no son la misma cosa. La mayor parte del software comercial es privativo, no obstante existen softwares libres comerciales y softwares no-comerciales privativos. Software Libre de Fuente Abierta - (Free and Open Source Software - FOSS y Free/Libre and Open Source Software - FLOSS: Definición muy utilizada recientemente en Europa y que pretende incluir y mezclar los conceptos del movimiento software libre y del movimiento de fuente abierta, sin entrar en el mérito de las diferencias políticas y filosóficas existentes. Los derechos de propiedad intelectual Mouhamadou Moustapha Lo Detrás de la expresión “Derechos de propiedad intelectual” se esconde en realidad una batalla cultural, política y comercial mundial. ¿Acaso no vivimos en un mundo donde algunos grupos industriales de los países del Norte, acaparando cierto número de patentes o licencias, llegan a imponer a los otros (la mayoría) límites al uso de sus obras y trabajos? En nuestros días, la tendencia dominante apunta a relacionar la complejidad de los “derechos de propiedad intelectual” sólo a su aspecto económico. Es lo que explica que las negociaciones centrales tengan lugar bajo la égida de la OMC (Organización Mundial del Comercio) y no en la UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura). Hasta la Cumbre Mundial sobre la Sociedad de la Información evita el tema, aun cuando se trata de un fundamento jurídico y social muy importante para la creación y transmisión del conocimiento. Pero esta situación cambia, y numerosos países del Sur insisten, en todas las estructuras que debaten acerca de la propiedad intelectual, en poner en evidencia sus preocupaciones. Así, quince países proponen a la OMPI la redacción de una “Iniciativa para el Desarrollo” [1], lo que va en el sentido de la acción de entidades de la Sociedad Civil que quieren redactar un Tratado para el “libre acceso al conocimiento” [2]. De este modo, la protección de la “diversidad cultural” ha sido defendida en el seno de la UNESCO, rechazando que la creación sea alineada sobre las reglas del comercio [3]. Así, los programas libres, las licencias de tipo Creative Commons, la defensa de un patrimonio digital mundial y el rol central de las bibliotecas en la circulación de la información digital son ideas defendidas en el seno de la CMSI tanto por la Sociedad Civil como por numerosos países en desarrollo. ¿Qué comprenden los “derechos de propiedad intelectual”? Los derechos de propiedad intelectual constituyen un haz de normas jurídicas a las cuales se puede recurrir con fines de protección, indemnización y conservación de los derechos referentes a una “creación intelectual” (invento, idea técnica, obra artística, diseño de objetos o marca registrada, etc.). Ellos cubren varios sectores: en el centro, la propiedad literaria y artística (derecho de autor o copyright) y la propiedad industrial (patente, marca registrada, dibujos o modelos), pero también cada vez más las reglas de derecho y los tratados referentes a los saberes indígenas o tradicionales, a la biodiversidad, los derechos de los campesinos, o la salud pública. Una voluntad reciente que data de los años 1980 provoca la reunión de todos estos enfoques en un único marco global que trata de todas las obras y trabajos inmateriales.. El término consagrado hoy en el derecho y en los debates mundiales de “Derechos de la propiedad intelectual” es la traducción de una opción política y económica que apunta a considerar a la “propiedad intelectual” como un “derecho natural”, tomando como ejemplo la propiedad de la tierra o de los medios de producción. Ahora bien, esto es ampliamente contradicho tanto por la historia como por el análisis de las consecuencias dramáticas que podría tener esta acción, si se llegara a realizar. El derecho de propiedad intelectual tiene una larga historia. Desde el “Statute of Anne”, ley británica, primera tentativa de escribir un “derecho de autor” en 1710 [4], la propiedad literaria ha sido concebida como un derecho de equilibrio entre los intereses de la sociedad (“alentar a los hombres esclarecidos a componer y escribir libros útiles”, decía el Estatuto de Ana) y los derechos de los autores. Estos últimos disponen del monopolio de explotación de sus obras, que no pueden ser editadas o representadas sin su consentimiento. Pero numerosas “excepciones y exenciones” son presentadas en todas las leyes que tratan de la creación. Estas apuntan a defender la capacidad de la sociedad para utilizar el conocimiento que está incorporado en obras y para facilitar el acceso a las obras y su circulación; excepciones para la educación y las bibliotecas, derecho de copia privada, derecho de citación, derecho de caricatura, derecho de trascripción para favorecer el acceso a personas discapacitadas, etc. Agreguemos que, tradicionalmente, la propiedad literaria y artística se refiere a la forma de la creación, y no a las ideas que son contenidas en ellas. Engloba no solamente la obra de arte original y la escritura creadora, sino también las bases de datos informatizadas y los programas informáticos. Esta relación de equilibrio entre los creadores y la sociedad se manifiesta plenamente en la existencia de un “dominio público”, en el cual se encuentran obras después de un cierto plazo (actualmente 70 años después del deceso del autor, 50 años después de su difusión para las interpretaciones musicales, 20 años después de su expedición para las patentes, 70 años después de su depósito para los dibujos y modelos, etc.). Este “dominio público” se enriquece también con trabajos creados para el poder público (Leyes, informes, decisiones, actas, etc.), descubrimientos científicos y datos experimentales (descifrado del genoma humano, teoremas matemáticos, etc.). Finalmente, se ve aparecer la noción de un “dominio público autorizado”, en el cual los mismos autores y creadores deciden colocar sus obras en el momento de su creación. Es, por ejemplo el caso de los programas libres de tipo Creative commons, de los depósitos de datos científicos, de los bancos de datos de conocimientos prácticos de los archivos abiertos para la publicación de la ciencia [5]. El sistema de las patentes, por su parte, concede derechos exclusivos de propiedad sobre el objeto de la patente, más precisamente sobre las “reivindicaciones” que siguen a la descripción técnica de la invención. Este régimen ofrece a su titular el derecho moral de impedir que cualquier otra persona utilice, fabrique o venda el objeto de la patente, o utilizar la técnica o el proceso durante cierto período, a cambio de la inscripción de su conocimientos prácticos en un documento técnico. Originalmente las patentes fueron concebidas no en contra del acceso al conocimiento sino, por el contrario, para servirlo. Esto ha permitido a los países entonces emergentes, como los Estados Unidos durante todo el siglo XIX, utilizar el conocimiento práctico anterior o “extranjera”, porque las patentes deben designar los países a los cuales se aplican. Así pues la patente está destinada a estimular la creatividad y la invención, y es un privilegio otorgado a individuos en beneficio de la sociedad. Sobre el fundamenteo de la “patentización” no hay una unanimidad. Las negociaciones comerciales mundiales actuales apuntan a impedir el uso por parte de los países en desarrollo de esta oportunidad económica. Los países desarrollados quieren extender al mundo entero las reglas que les son propias [6], lo que plantea el problema de equilibrio para los países del Sur, que no tienen las capacidades de inversión necesarias en esta carrera contra el reloj. La propiedad intelectual ante las redes y lo digital Los ordenadores y, en sentido más lato, la digitalización de la cultura y del conocimiento, por una parte, y las redes que ofrecen la capacidad de hacer circular rápidamente estos objetos digitales a escala mundial, por otra parte, abren un nuevo desafío a las reglas de propiedad intelectual. ¿Cómo escribir, a escala mundial, un nuevo equilibrio que permita favorecer la creación y la innovación, garantizando el acceso de todos al conocimiento, y la distribución mundial de los beneficios de la investigación? Los nuevos soportes nacidos de la emergencia de las TIC ocasionan una aceleración de las innovaciones y una mundialización de los intercambios. En consecuencia, se impone la urgencia de un nuevo enfoque, un nuevo derecho de la propiedad intelectual que elimine cualquier tipo de diktat de los grupos industriales de los países del Norte. Los derechos de propiedad intelectual no pueden ser concebidos únicamente como una extensión del monopolio de explotación de un pensamiento o de una obra intelectual, sino que deben tomar en cuenta otros intereses. A título de ejemplo, la aceleración de la innovación en sectores como los de la informática o las biotécnicas acentúa las divergencias de posición entre los países del Norte y los del Sur. Los derechos de propiedad intelectual deben consagrar un derecho en provecho de los creadores, limitado al mismo tiempo por obligaciones hacia los utilizadores, en nombre del derecho de acceso a la información, un derecho fundamental. Con el objeto de delimitar bien los desafios del debate actual, hay que empezar teniendo una visión clara de lo que cubre la expresión “derechos de propiedad intelectual”. El enfoque jurídico nos ofrece dos tipos de visión: estática o dinámica. La primera consiste en contentarse con herencia, tradiciones, privilegios [7]. Los derechos de propiedad intelectual aparecen así como un conjunto de textos cuya aplicación suscita interrogantes. Numerosas normas nacionales, regionales e internacionales son establecidas principalmente para reforzar el monopolio sobre las obras e invenciones de los autores, inventores y más aun, de las empresas que valorizan y distribuyen esas creaciones. Esta tendencia a dictar leyes de control de la circulación del conocimiento, acentuada por la implementación de “medidas técnicas de protección” directamente al interior de los documentos digitales ¿corresponde a los desafíos actuales de la sociedad de la información? Este concepto occidental de la cuestión es refutado por los países del Sur, víctimas de la regla según la cual el que llega primero, se sirve primero. Toda creación implica en el inicio una protección, pero conviene medirla con el fin de no obstaculizar los procesos de producción o de acceso a la información en adelante. La segunda visión, dinámica, considera que los derechos intelectuales deben facilitar antes que nada la expresión de las ideas, su circulación a través de las tecnologías de la información y de la comunicación (TIC) y su utilización sistemática posteriormente. La sociedad de la información cambia las modalidades de la creación y sobre todo de la transmisión de las obras. Las TIC, al abrir otras perspectivas con una difusión más amplia de las obras, crean nuevos modelos económicos, por un lado, y permiten un mayor seguimiento de los usos, por el otro. Esto, tanto para las personas privadas como para las industrias y los países en desarrollo. En este contexto, los países del Sur trabajan para el fortalecimiento y la ampliación de los derechos de los utilizadores. Ellos preconizan una demostración de inventiva en los mecanismos jurídicos a ser implementados. Además, para ellos, no es porque un grupo de países industrializados tiene el monopolio mundial de las patentes (el 97% de las patentes es depositado por los países desarrollados) que esos países deban tener el derecho de exigir a los países en desarrollo alinearse sobre sus propias normas. Esto significa reproducir la dominación haciendo competir a estos países con una desventaja muy pesada, para poder ser admitidos en el seno de un sistema mundial de intercambio. Es también una cuestión de control del saber (incluyendo el de la censura). Martín Khor considera que para favorecer el libre acceso mundial al conocimiento, conviene limitar el “alcance del copyright y de las patentes a favor de los consumidores y del interés público” [8] con miras a favorecer un número más grande de accesos a la información y al conocimiento. Una evolución mercantil que destruye el equilibrio La controversia en curso es suscitada por la actitud de un gran número de grupos de presión - actores de la creación, nuevas profesiones de lo digital [9] que quiere actuar sobre los derechos de propiedad intelectual. Su acción concertada conduce a imponer un fortalecimiento de la idea de una mercantilización de la información, una visión estrictamente económica de la propiedad intelectual [10]. Esta evolución se hace a expensas de los bienes comunes de la información y de las excepciones al uso que favorecen la circulación del conocimiento. Además, ella apunta a ampliar permanentemente el campo de la propiedad intelectual, llegando hasta a tocar las reglas fundamentales y los sectores vitales para la humanidad (medicamentos, genética, patente de lo viviente, semillas agrícolas, conocimientos tradicionales, datos geográficos y botánicos, etc.). Esto confiere a las cuestiones relativas al derecho de la propiedad intelectual una importancia nueva en el universo digital, y más ampliamente en todas las técnicas de la era de la información. La carrera hacia el lucro empuja a los grupos de industriales de los países del Norte a patentar todo lo que puede ser imaginado para el futuro. Así colocan numerosos cerrojos sobre las técnicas en gestación, cuyos conocimientos prácticos están a menudo lejos de ser formalizados. La parte descriptiva de las patentes depositadas pierde entonces su interés para la transmisión del saber técnico. La patente sirve más bien para prospectar tranquilamente en el futuro, que para proteger una innovación existente. Por ese hecho, limita la investigación y el desarrollo [11]. También acrecienta de manera ineluctable el flujo de pagos de los países del Sur hacia los países del Norte, a título de royalties y de ganancias a los detentadores de las patentes. Este procedimiento conduce a multiplicar las patentes que recaen directamente sobre el conocimiento (algoritmos y software informáticos, secuencias genéticas), las formas de organización del mundo (patentes llamadas de “método”), las moléculas químicas (y no solamente los procesos de fabricación), los saberes ancestrales (la “biopiratería”), los vegetales [12], los animales [13] y más ampliamente todo lo viviente. Al “patentar lo viviente”, que consiste en conceder a una empresa o a un individuo la propiedad sobre un componente de lo viviente, se descubre una visión intelectualmente aberrante y humanamente inaceptable de la propiedad industrial. Hay que tener en mente que hasta los años 90, el sistema de patentes comprendía esencialmente los objetos inanimados y los procesos mecánicos [14]. Apoyándose sobre el registro de tales patentes, empresas transnacionales quieren prohibir a los países del Sur la utilización de los conocimientos para luchar contra las calamidades que les afectan. La ilustración más perfecta sigue siendo el proceso intentado por varias multinacionales del sector farmacéutico contra el gobierno sudafricano cuando este último trató de democratizar el acceso a los tratamientos de salud para los enfermos del sida [15]. Las excepciones que aún existen en los tratados internacionales como el tratado de la OMC, por ejemplo sobre las licencias legales de los medicamentos por razones de salud pública, son cuestionadas en cada negociación y desmanteladas indirectamente por negociaciones bilaterales [16]. En el ámbito cultural, se asiste igualmente a una extensión del campo de los derechos de autores más allá de un régimen equilibrado. Nuevos sectores son corroídos (desde las publicaciones científicas hasta los cursos de los docentes), producciones mecánicas caen bajo la égida de los derechos de autor (ej.: las fotografías automáticas, como las de los satélites, tan útiles para prevenir las catástrofes). Las empresas intermediarias, como los medios de comunicación o los editores científicos, se apoyan sobre una interpretación de sentido único del derecho de autor para agregar limitaciones al libre acceso a la cultura, especialmente en la escuela, las universidades y las bibliotecas. Esta extensión de la propiedad, además de la extensión de los campos cubiertos, sigue dos ejes: el del tiempo (prolongación de la duración de propiedad) y el de los usos. Con las “medidas de protección técnica” (DRM: digital right management systems) o el “derecho de los difusores” (“broadcast flag”), los detentadores de derechos quieren poder seguir los usos privados de los documentos digitales, lo que constituye una grave amenaza para la libertad de expresión, la vida privada y los Derechos Humanos [17]. Hasta el presente, todos los mecanismos capitalistas de difusión de la información han apuntado a crear artificialmente una escasez de información. Se trata de una estrategia de acaparamiento. Ahora bien, en el campo del conocimiento, la posesión por parte de uno no significa de ningún modo desposeer a los otros. Se puede efectivamente poseer una información e intercambiarla sin ser por lo mismo desposeído de ella. La búsqueda de un equilibrio que tenga en cuenta esta naturaleza de los bienes inmateriales es la aspiración de la acción emprendida a escala mundial por la Sociedad Civil, acompañada por Estados en desarrollo, para obtener un “Tratado para el libre acceso al conocimiento” [18]. Se trata de permitir a todos, y especialmente a los países en desarrollo, utilizar los conocimientos de la humanidad para enfrentar los males del siglo XXI. Construir un dominio público universal de la información [19] aparece como una necesidad urgente. De ahora en más, la técnica nos ofrece las condiciones de su realización. Conviene que las reglas jurídicas y económicas permitan su realización. La protección de los derechos intelectuales no debe ser una desventaja en un mundo donde cualquiera podría producir, intercambiar y acceder a los yacimientos intelectuales y recursos protegidos, es decir, a un dominio público abierto, de los recursos comunes. Este dominio público universal de la información supone una definición clara de los derechos reconocidos tanto a los creadores como a los utilizadores. Toda invención merece recompensa a los esfuerzos realizados. Los países del Sur no niegan de ningún modo esa realidad. Sin embargo, solo las invenciones que son verdaderamente únicas, nuevas o creativas merecen ser protegidas. Una opción semejante equivaldría a recompensar la creación y la innovación, antes que favorecer a los detentadores de portafolios de derechos de propiedad. La época de las restricciones debe concluir porque “cuanto más libremente accede la gente a entidades intelectuales, más capaz y deseosa es de dedicar tiempo a acceder y a crear entidades de valor”. [20] La recompensa debe ser la respuesta a todo esfuerzo innovador. Pero no todo debe ser patentable. En principio, toda invención intelectual debe ser destinada al dominio público, salvo si es necesario hacer posible su apropiación temporaria, y aún así, solamente si esto no acarrea discriminaciones inaceptables. La atribución de un derecho de propiedad, a justo precio, solo debe ser aceptada si la inversión en cuestión es importante excluyendo toda retribución económica sistemática. El reconocimiento de un valor primordial de los bienes comunes relativos a la información, libremente accesibles y utilizables para todos, está lejos de ser realizado.[21] En este momento, el ejemplo más visible sigue siendo los programas libres. Es el único bien común de la información que ha llegado a su madurez. Su utilización se generaliza poco a poco entre los utilizadores privados, pero también en el seno mismo de la administración y de los servicios de numerosos países o colectividades territoriales. Hay que ir más rápido y permitir a todos acceder a las otras fuentes de información. Para eso, una solución pasa por la reducción de la duración de propiedad antes de la accesión al dominio público. Es tiempo de hacerla suficientemente corta, por el simple hecho de que la accesibilidad se ha vuelto más fácil y más rápida en nuestros días. [22] El derecho es una formalización de las relaciones sociales. En tal sentido, los derechos de propiedad intelectual constituyen una cuestión política que debe ser discutida como tal por los gobiernos y por la sociedad civil. Teniendo en cuenta la importancia de la información para la vida cotidiana, para la educación de las generaciones futuras y para el desarrollo económico sostenible y la protección de la naturaleza, conviene asegurar su protección por los Estados, asociando a los usuarios, los poderes económicos y científicos. No es el mercado el que debe dictar su ley y no se puede dejar instalar una situación donde algunos grandes grupos se repartirían todo el conocimiento del mundo. Las sociedades de la información sólo serán realmente inclusivas si existe un dominio público universal de la información funcionando en beneficio de todos. La verdadera armonización de los derechos de propiedad intelectual pasa por un reequilibrio entre los propietarios y los usuarios, pero también entre los países desarrollados y los países en desarrollo. La información debe servir a la humanidad y que el saber siga siendo el vínculo del desarrollo. Economía de la información Roberto Verzola El concepto de una sociedad y economía post-industrial fue mencionado por primera vez en los años cincuenta, cuando los investigadores se percataron de que existía una expansión gradual de las secciones no agrícolas, no industriales de las economías industriales avanzadas. Al constatar que estas secciones constituían la base de una nueva economía incipiente, el término “post-industrial” fue empleado con frecuencia para describir esta economía. Esto implicaba que los rasgos principales de esta nueva economía aún no estaban lo suficientemente claros o no se entendían lo suficiente, por lo que la nueva economía fue definida simplemente en términos de la economía anterior que estaba reemplazando. Los primeros estudios de la economía “post-industrial” la consideraron erróneamente como una economía de servicios. Uno de los primeros autores en reconocer correctamente la característica principal de la nueva economía incipiente fue Machlup (1962), quien para describirla empleó el término “industria basada en el conocimiento”. Él descubrió que en el año 1959, las ocupaciones que generaban conocimiento habían superado en número a las demás. Sin embargo, en 1973, autores como Daniel Bell (1973) seguían refiriéndose a la economía incipiente como economía “post-industrial”. En 1977, Marc Uri Porat (1977), a quién más tarde se unió Rubin, escribió un ensayo de 9 volúmenes, que midió y estimó el alcance de esta economía, y describió este sector emergente como “economía de la información”. Desde entonces su obra ha sido muy citada como la primera obra importante en que se empleó el término “economía de la información”. Cuando la tecnología digital posibilitó la producción sin límites de copias exactas de textos, imágenes, sonido, video y otros materiales de información, la economía de la información creció rápidamente. Con el surgimiento de Internet y después de la World Wide Web, la economía de la información maduró gradualmente hasta convertirse en la floreciente economía de la actualidad. Uno de los más recientes esfuerzos por estimar el alcance de la economía de la información de Estados Unidos fue realizado por Apte y Nath (2004), quienes llegaron a la conclusión de que la participación del sector de la información de los Estados Unidos en el PNB aumentó “de aproximadamente 46% en 1967 a aproximadamente 56% en 1992, y a 63% en 1997.” Información: de un sector a toda una economía La definición más citada de “economía de la información” es la de Porat, quien distingue entre dos dominios económicos: el dominio de la materia y la energía, y el dominio de la información. A este último lo llamó sector de la información y el primero incluye los sectores agrícola e industrial. El sector de la información se refiere a la transformación de la información “de un formato a otro.” Una economía se convierte en una economía de la información cuando el trabajo relacionado con la información comienza a superar al trabajo relacionado con otros sectores. Según las valoraciones de varios sectores realizada por Porat, esto ocurrió en 1967, cuando el 53% de la mano de obra norteamericana realizaba un “trabajo de información.” Porat clasifica el sector de la información en dos sectores, el sector primario de la información y el sector secundario de la información. Los trabajadores del “sector primario de la información” son aquellos que se relacionan casi totalmente con la creación o gestión de la información, como los científicos, escritores, bibliotecarios, etc. Los trabajadores del “sector secundario de la información” son aquellos que trabajan principalmente en cuestiones no relacionadas con la información, pero cuya labor implica un trabajo de información como aspecto secundario. Estos últimos son los trabajadores de empresas e industrias que no son de la información, pero generan información para uso interno en la producción de mercancías agrícolas o industriales (es decir que no son información). Porat incluye en el sector primario de la información a las siguientes industrias: 1) producción de conocimientos e invención (I+D y servicios de información privados); 2) distribución de la información y comunicación (educación, servicios de información públicos, telecomunicaciones); 3) gestión de riesgos (industrias de seguro y finanzas); 4) búsqueda y coordinación (industrias de correduría, publicidad); 5) servicios de procesamiento y transmisión de la información (procesamiento de la información por computadoras, infraestructura de las telecomunicaciones); 6) mercancías de la información (calculadoras, semiconductores, computadoras); 7) actividades gubernamentales seleccionadas (educación y servicio postal); 8) instalaciones de apoyo (edificios, mobiliario de oficina); 9) la venta al por mayor y al por menor de los productos y servicios de información. Porat incluye en el sector secundario de la información a “todos los servicios de la información generados para consumo interno por el gobierno y las empresas no pertenecientes a la esfera de la información”, exceptuando las actividades gubernamentales que pertenecen al sector primario de la información como la educación y la impresión, pero incluyendo actividades gubernamentales tales como planificación, coordinación, supervisión, control, evaluación y toma de decisiones. También se incluyen en el sector secundario de la información las áreas de las empresas e industrias privadas no pertenecientes a la esfera de la información involucradas en labores de información o de la producción de información no destinada a la venta o arriendo en el mercado, pero que apoyan solamente la producción de productos no pertenecientes a la esfera de la información, entre los que se incluyen los servicios internos de procesamiento de datos y de biblioteca. La OCDE (Organización para la Cooperación y el Desarrollo Económico) ha adoptado la definición de Porat en sus estudios sobre la naturaleza, el alcance y el crecimiento de las economías de la información. Otras definiciones de la “economía de la información” son variantes de la definición de Porat o la de Machlup. Las fronteras elusivas de la economía de la información La cuestión referida a qué actividad o producto se considera parte de la economía de la información, presagiada por las diferencias entre los enfoques de Machlup y Porat, continúa suscitando los debates actuales sobre la economía de la información. Por ejemplo: ¿Deben incluirse en el sector de la información las actividades productoras de información en las empresas que por sí mismas no generan productos de información para el mercado? A fin de cuentas, toda ocupación produce y gestiona información. Los agricultores, los mecánicos, los niños limpiabotas y los conserjes también necesitan información, la producen, y la utilizan para sus propios fines. Como no generan productos de información para la venta o intercambio, hay quienes consideran que no deben formar parte del sector de la información. ¿Deben incluirse o no, al estimar el alcance del sector de la información, las salidas intermedias (que sirven como entradas para otras actividades de la producción)? ¿Debe limitarse el sector de la información solo a las actividades que producen información, o debe abarcar también las que gestionan, distribuyen, muestran, etc. la información? ¿Deben considerarse parte del sector de la información las industrias que producen bienes tangibles (por ejemplo, computadoras, monitores, enrutadores, etcétera)? ¿Deben ser considerados parte del sector de la información los servicios que proporcionan información, pero no productos de información para el mercado (por ejemplo: un médico que emite un diagnóstico o administra medicamentos)? Puede decirse que no, porque el servicio que proporcionan no tiene el mismo costo marginal de producción, aproximadamente cero, que la generación de los productos de información. ¿Deben incluirse las categorías basadas en las cuentas existentes del ingreso nacional, o deben incluirse las actividades no incluidas en esas cuentas - quizás porque antes no existían? ¿Los estimados de la contribución del sector de la información al PNB deben basarse en el “valor añadido” o en la “demanda final”? La demanda final se basa en las ventas del producto, mientras el valor añadido se basa en el ingreso. ¿Debe definirse la economía de la información en relación con su alcance con respecto a otros sectores de la economía, o cuando se haya alcanzado un nivel específico de informatización dentro de una economía? ¿Son los enfoques monopolizadores como las patentes y los derechos de autor, normalmente conocidos como derechos de propiedad intelectual (DPI), los medios más apropiados de propiedad sobre la información? Apte y Nath (2004) resumieron las diferencias entre los enfoques de Machlup y Porat. Un análisis más profundo puede encontrarse en Huber y Rubin (1986). Como pudo apreciarse anteriormente, aunque la economía “post-industrial” ya ha sido identificada de forma clara como una “economía de la información”, continúa el debate en torno a cuáles actividades y qué productos deben ser clasificados dentro del sector de la información de dicha economía. Una gama de productos e instalaciones que tienen un impacto en el proceso de producción 1. Una economía de la información es una economía en la que el sector de la información llega a ser más dominante que los sectores agrícola o industrial de la economía. 2. El sector de la información es la parte de la economía que se ocupa de la creación, gestión, procesamiento, transmisión, distribución, y empleo de la información, donde la información se define como la reducción de la incertidumbre, y la incertidumbre es una medida del número de posibilidades. La unidad más pequeña de información es el bit que resuelve la incertidumbre entre dos resultados igualmente posibles. La información es un ente no material, sin energía y solo toma forma física cuando se almacena en un medio físico (como en un disco duro) o se comunica en forma física (como en una señal de radio). 3. Según esta definición, la información incluye programas, bases de datos, música, video, contenido de un libro, diseños, información genética, memorias orgánicas y humanas, y otros entes que eventualmente puedan ser representados, almacenados y comunicados en forma de bits. Éstos pueden llamarse productos de información. En ocasiones son incluidos dentro de la categoría de contenido de la información. Entre los productos de información se incluyen productos que no son puramente información, pero que contienen una cantidad de información tal que aporta la mayor parte del precio del producto. También incluyen los números de Protocolo de Internet (IP), nombres de dominio, formatos, normas, y aspectos similares empleados en los equipos e instalaciones de la información. 4. La economía de la información también incluye el equipamiento físico y las instalaciones empleados para la generación y el procesamiento de la información, aun cuando este propio equipamiento pudo haber sido producido fuera de la economía de la información. Este equipamiento físico incluye computadoras, equipos de comunicaciones, equipos de conmutación, equipos de conexión de redes, equipos de audio y video, imprentas, estudios y estaciones de radio y televisión, bibliotecas, cines, equipos de secuenciamiento de ADN y otros equipos similares. Todos ellos pueden ser llamados equipos e instalaciones de información. 5. La economía de la información incluye también a las personas que se ocupan de generar y distribuir información. 6. La información es un ente no material, sin energía, y la materia y la energía son necesarias sólo en la medida en que la información deba ser almacenadao comunicada. A medida que la tecnología de la información continúa avanzando, siguen desarrollándose formas de almacenamiento/comunicación de la información que emplean menos materia o energía. Por tanto, el costo de reproducción (es decir, duplicar, hacer copias) de la información se aproxima a cero. 7. El párrafo precedente solo define los aspectos económicos de la información: un producto cuya creación requiere una cantidad importante de materia o energía, pero cuya reproducción no requiere prácticamente ningún costo, conduce a una economía que es unívocamente diferente a la economía de productos físicos (es decir, productos que contienen en cada unidad una cantidad establecida de materia y energía consumida, que se reflejará inevitablemente en el costo de dichos productos). Los productos de información pueden reproducirse prácticamente sin costo alguno (es decir, un costo marginal de producción de casi cero), lo cual significa que una vez creado, la carencia de este producto puede erradicarse prácticamente sin costo alguno. Por consiguiente, un estudio de la economía de la información no sólo debe implicar un estudio convencional de los aspectos económicos de la escasez, sino también un estudio de los aspectos económicos de la abundancia. 8. Hoy resulta posible ser propietario de productos de información a través de un mecanismo llamado derechos de propiedad intelectual (DPI), que incluye mecanismos estatutarios monopolizadores tales como las patentes y los derechos de autor. Los DPI crean una carencia artificial, al negar la abundancia potencial de un producto de información una vez creado y permitir a los titulares de los DPI mantener artificialmente el precio de un producto de información a un nivel arbitrario. Una economía de la información que se basa en mecanismos monopolizadores tales como los DPI para recompensar la actividad intelectual puede llamarse economía de la información monopolizadora. En el futuro, podremos ver también el surgimiento de economías de información no monopolizadoras, donde la actividad intelectual será recompensada sólo a través de medios no monopolizadores, que le permitan al público disfrutar plenamente de la abundancia de productos de información una vez creados. Los equipos e instalaciones de información son poseídos de la misma manera tradicional en que se posee un equipo industrial y la tierra, aun cuando aspectos individuales de tales equipos e instalaciones de información puedan contener también material patentado o registrado. En las economías de información monopolizadoras, los pagos por el uso tanto de los productos de información como de los equipos e instalaciones de información, no incluyen ninguna transferencia de propiedad, sino solo un permiso temporal para utilizar el producto, equipo o instalación. Por tanto, estos pagos adquieren la forma de arriendo. Las clases acaudaladas de la economía de la información, que poseen productos de información, equipos o instalaciones, son, por consiguiente, clases que pretenden arrendar. Estas clases arrendadoras pueden ser denominadas terratenientes del ciberespacio o cibertenientes. Conceptos relacionados, variante(s) El sector de las tecnologías de la información y las comunicaciones (TIC) incluye los artículos del sector industrial y el sector de la información relacionados con el almacenamiento, gestión, procesamiento, transmisión, presentación y empleo de la información. Pueden ser productos tangibles o intangibles. El comercio electrónico se refiere al uso de Internet y otras infraestructuras nacionales o internacionales de comunicaciones para iniciar o realizar transacciones comerciales, tales como consultas, presentación de pedidos, realización de pagos o transacciones de documentación. A menudo se emplea como sinónimo de la economía de la información el término “economía del conocimiento” o incluso “industrias del conocimiento” o “industrias basadas en el conocimiento”. Estos fueron los términos utilizados originalmente por Machlup. Aún se emplean como término común para referirse a la economía de la información. Aunque ambos términos parecen diferentes, algunos autores consideran que el término “economía del conocimiento” es el más general, mientras otros creen que es “economía de la información”. El autor del presente artículo prefiere el término “economía de la información” porque es la información, no el conocimiento, lo que se transfiere o se intercambia. La información se convierte en conocimiento sólo después que es procesada internamente de manera apropiada por una persona. Personas que adquieran el mismo conjunto de información pueden generar internamente diferentes tipos de conocimientos partiendo de ese mismo conjunto de información. Además, las ciencias de la información tienen una definición muy específica y generalmente aceptada de información en términos de resolver la incertidumbre y los medios y unidades para medirla, pero no existe una definición o unidad de conocimiento generalmente aceptada. Los desafíos del multilingüismo Adriana Lau Desde un principio, la idea de que el presente glosario fuera multilingüe fue una de las piedras angulares en la concepción del proyecto: no se puede hablar de multiculturalidad en una obra redactada en un solo idioma y que por lo tanto refleja la idiosincrasia de una sola cultura. Se previó así convocar a expertos en el tema provenientes de diferentes partes del mundo que hablaran portugués, inglés, español o francés, cuatro de los idiomas más representativos en la materia a nivel mundial en la actualidad. Cada autor definiría un concepto en su lengua materna y posteriormente debía enriquecerlo gracias a un debate conjunto entre todos los autores participantes. Los artículos finales serían luego traducidos a los cuatro idiomas. El panorama se complicó al caer en cuenta de que no todos los autores hablaban los otros idiomas diferentes del suyo propio. Se pensó entonces recurrir a la ayuda de un equipo de traducción no sólo para la traducción de los artículos al final del proceso de redacción sino para la traducción de la primera versión de los artículos que serviría para la comunicación y el intercambio entre los 27 autores y los 3 coordinadores. Para coordinar este complejo trabajo de traducción que se requeriría a lo largo de todo el desarrollo del proyecto se contó con la participación de la Unión Latina. El proceso de traducción Se convocó a profesionales de diferentes países para conformar el equipo de traducción. La mayor preocupación fue tratar de mantener la pluralidad del proyecto -sobre todo teniendo en cuenta que estos 4 idiomas son hablados en una vasta zona geográfica. Se logró mantener la diversidad respecto a la procedencia. Sin embargo, se corroboró una vez más que los interesados en temas relacionados con las lenguas y por ende con la labor de traducción son en su mayoría mujeres. Así, participaron en el proceso de traducción traductoras de Brasil, Cuba, Estados Unidos, Francia, Gran Bretaña, Paraguay y Venezuela (ver presentación de las traductoras). La gestión del proceso de traducción no fue tarea fácil. El hecho de que las traductoras participantes tuvieran procedencias tan variadas nos obligó a mantener un contacto exclusivo vía mensajería electrónica. Cada texto recibido en una primera versión en su lengua de origen fue inmediatamente enviado a las traductoras para su respectiva traducción en los otros tres idiomas. Una vez traducido, se incluía el artículo en el sitio web del proyecto para que estuviera a disposición de los demás autores y se pudiera iniciar así el debate sobre cada concepto. Gracias a los intercambios entre los autores y coordinadores del proyecto, los artículos fueron mejorados, algunas veces añadiendo ideas, otras más bien suprimiéndolas o en ocasiones simplemente modificando la estructura interna del texto para hacerlo más accesible al público en general. Posteriormente, la nueva versión de los artículos fue enviada a las respectivas traductoras para realizar las modificaciones necesarias en los otros idiomas. Terminada esta etapa, los artículos quedaron listos para su publicación en el sitio web y en versión impresa. Este fue, a grosso modo, el sistema de trabajo. Sin embargo, viendo un poco más en detalle el desarrollo de este proceso de traducción, pudimos observar que esta obra constituye en sí la prueba palpable de la utilidad de las nuevas tecnologías de la información en la sociedad actual. En efecto, un proyecto semejante no hubiera podido ver la luz - por lo menos no en un periodo de tiempo tan reducido hace algunos años, cuando no se disponía de una herramienta como Internet. La condición vital de contar con la participación de especialistas y de traductores de todas partes del mundo hubiera quedado en simple proyecto. Internet, multilingüismo y multiculturalidad Efectivamente, esta obra fue realizada tal y como se pensó en gran medida gracias a Internet. Sin embargo, la comunicación por Internet y el trabajo en equipo a distancia no sólo traen ventajas consigo, también representan ciertas dificultades. Con el propósito de tener una comunicación fluida tanto entre los coordinadores, como entre éstos con los autores y con las traductoras, se crearon diferentes listas de discusión. Hubo una lista dedicada exclusivamente al trabajo de coordinación, otra sirvió de medio de comunicación entre los coordinadores, los autores y las traductoras, y una tercera fue puesta a entera disposición de las traductoras para resolver dudas relativas a los idiomas. No obstante, uno de los mayores problemas “técnicos” es, por supuesto, el acceso a Internet. Como es del conocimiento de todos, en muchos países del Sur, ya sea por cuestiones técnicas o de costos, no es fácil acceder a esta herramienta. En algunos casos, debido a este tipo de dificultades, las listas de discusión no cumplían su función comunicadora; algunas de las traductoras, al no tener acceso directo a una conexión de Internet, no recibían en tiempo real mensajes urgentes de modificaciones de último minuto o intervenciones de los autores que debían ser traducidas para alimentar el intercambio entre ellos, por citar algunos ejemplos. Este último caso de comunicación entre los autores nos ayudó a tomar conciencia de otro detalle “técnico”. Al no tener pronta respuesta de las traductoras y con el objetivo de acelerar el intercambio de ideas entre los miembros del equipo, se optó por utilizar un programa de traducción automática a nivel interno en las listas de discusión. Este recurso simplificó los problemas de comunicación cuando el lector final de dicha traducción tenía ciertos conocimientos del idioma de origen; no obstante, para aquellos que lo desconocían, estas traducciones no comunicaban ningún sentido o, lo que es peor, transmitían contrasentidos. Entonces, la intervención de los coordinadores y de las traductoras se hacía necesaria para aclarar las dudas. Esta situación puso de manifiesto el gran error de aquellos que piensan que un traductor será reemplazado tarde o temprano por la traducción automática. Estamos lejos de que esto suceda. En todo caso, será difícil concebir un programa que sea capaz de identificar los pequeños -o grandes- matices de las diferentes culturas que conforman nuestro planeta y, más aun, que sea capaz de entrar en comunicación con los autores de los textos tratados para aclarar términos ambiguos, como fue el caso en este proyecto. Cabe mencionar también que algunos de los autores, como un síntoma más de la globalización, no residen en sus países de origen y hablan diferentes idiomas, pudiendo expresarse mejor a nivel profesional en un idioma extranjero que han “adoptado” por haber realizado sus estudios o por desempeñar sus cargos en estos idiomas. Algunos de estos autores redactaron sus artículos en estos idiomas “adoptados”. No obstante, si bien es cierto que dominan la jerga profesional, la gramática puede tener ciertas fallas. Por otro lado, muchas veces el autor de un texto se encuentra tan inmerso en el tema que le ocupa que no se percata de que su texto no es suficientemente claro para los lectores. En estos casos, frente a “deslices gramaticales” o ambigüedades terminológicas, el traductor juega un papel muy importante; un programa de traducción automática no tendrá nunca la capacidad intelectual de un traductor para interpretar dichas fallas ni contará con la posibilidad de hacer consultas sobre imprecisiones, ofreciendo como resultado un texto ininteligible. Quisiéramos finalmente poner de relieve que fueron justamente las intervenciones de las traductoras en la lista de discusión común solicitando aclaraciones sobre terminología en este campo del saber las que provocaron numerosos debates entre los autores. En estos debates cada autor defendió su propio enfoque frente a dichos términos, lo que confirmó la necesidad de una obra como ésta para llegar a ciertos “acuerdos” respecto a conceptos en plena creación y constante cambio, sin olvidar las diferencias que implica la diversidad cultural. En efecto, el carácter multicultural de esta obra le debe mucho a las traductoras participantes. ¿Hubiéramos podido hablar de multiculturalidad basándonos en una obra traducida mecánicamente? Cada autor plasma la idiosincrasia de su pueblo con respecto a un concepto perteneciente a un tema tan amplio como la llamada Sociedad de la Información, pero ¿hasta qué punto las nuevas tecnologías de esta nueva sociedad hubieran sido capaces de reflejar cabalmente y por sí solas las diferentes culturas que van contenidas en estos textos? Hemos visto que sólo la experiencia de los traductores y la comunicación constante con los autores permiten obtener un texto claro y preciso en un idioma diferente. Y, muchas veces, es la participación de los traductores la que permite incluso enriquecer un texto en lengua original. Agradecemos pues una vez más a las traductoras participantes por su importante labor en la realización de este proyecto multicultural y multilingüe, así como por su capacidad de colaboración y compromiso con esta tarea comunicadora. FIN