Los últimos del open source: los proyectos que aún mantienen viva la web libre y gratuita tal y como la soñamos

Internet nunca había tenido tantos usuarios ni tanto contenido y, sin embargo, cada vez se parece más a un puñado de pantallas repetidas. Gran parte de lo que leemos, vemos o buscamos pasa por los algoritmos de unas pocas grandes plataformas, que compiten por nuestra atención y convierten muchos de nuestros clics en datos medibles.
En medio de ese paisaje estandarizado sobreviven proyectos que funcionan con una lógica distinta, como Wikipedia, OpenStreetMap o el Internet Archive, que no se financian con anuncios, no venden perfiles detallados de sus usuarios y siguen apostando por una idea sencilla y exigente a la vez: que la información y el conocimiento deben ser un bien compartido.
La web no empezó siendo un escaparate de grandes plataformas, sino un laboratorio disperso y casi artesanal. En los primeros años noventa, quienes publicaban en la web lo hacían desde servidores universitarios, institucionales o domésticos, utilizando estándares abiertos como HTML, HTTP y las direcciones URI. Eran piezas fundamentales de una red diseñada para que la información pudiera circular sin depender de propietarios tecnológicos ni sistemas cerrados.
Esa arquitectura técnica alimentó la idea de que Internet podía ser un espacio abierto y accesible.
Internet no nació para vender datos: el mercado encontró cómo hacerlo
Aquel entusiasmo, sin embargo, convivía con límites evidentes. Como decimos, la participación estaba concentrada en universidades, centros de investigación y una minoría de entusiastas con conocimientos técnicos y recursos. Las cifras de la época muestran que apenas una fracción mínima de la población mundial tenía acceso a Internet, lo que significa que esa supuesta apertura era real en términos tecnológicos, pero no socialmente extendida.
A partir de mediados de los noventa, y sobre todo a finales de esa década, Internet empezó a recibir mayor atención. Las empresas vieron potencial económico en una red que conectaba a millones de personas y que permitía distribuir información y servicios a escala global. Surgieron proveedores comerciales, navegadores populares y los primeros portales, y con ellos llegó la lógica del mercado: había tráfico, había usuarios y, por tanto, había oportunidades de negocio. El acceso a la web dejó de ser un experimento y comenzó a convertirse en una actividad masiva, medible y rentable.
Ese cambio impulsó un modelo que se consolidaría con rapidez: la publicidad segmentada. No se trataba solo de mostrar anuncios, sino de analizar el comportamiento de los usuarios y obtener datos sobre sus intereses, hábitos y preferencias. Fue el momento en que la atención humana empezó a adquirir un valor económico concreto. Los clics, el tiempo de permanencia y los patrones de navegación dejaron de ser rastros técnicos y se convirtieron en materia prima para un nuevo mercado digital.
En ese contexto cada vez más comercializado, algunos proyectos mantuvieron otra manera de entender Internet. No nacieron para captar tráfico ni para competir por atención, sino para construir infraestructuras públicas de información. Wikipedia se lanzó en 2001 con un objetivo que entonces parecía poco realista: crear una enciclopedia libre, escrita colectivamente y disponible para cualquiera con conexión a Internet.
OpenStreetMap inició su camino en 2004 con una idea similar, pero aplicada al territorio, documentando de forma colaborativa las calles, caminos y lugares del mundo. Internet Archive llevaba desde 1996 preservando páginas, documentos, audio y vídeo para que no desaparecieran con el paso del tiempo.

Dos décadas después, esos proyectos no solo siguen activos, sino que son piezas centrales de la web actual. Millones de personas consultan Wikipedia cada día para comprobar un dato, entender un contexto o aprender algo nuevo. Los mapas de OpenStreetMap alimentan desde aplicaciones móviles hasta servicios públicos y proyectos humanitarios. Y el Internet Archive se ha convertido en memoria digital de larga duración, un lugar donde la web no se borra, sino que se conserva. Son iniciativas construidas colectivamente que han llegado a tener impacto global sin adoptar el modelo comercial dominante.
Wikipedia se sostiene gracias a millones de pequeños donantes, la mayoría son lectores que aportan pequeñas cantidades, habitualmente en torno a diez euros al año. La Fundación Wikimedia gestiona esos recursos y mantiene la infraestructura técnica, incluidos los servidores, el desarrollo del software y los sistemas de seguridad. También administra el Wikimedia Endowment, un fondo independiente creado en 2016 para garantizar que el proyecto pueda seguir funcionando incluso si un año la recaudación cae. Desde 2021, existe además Wikimedia Enterprise, una vía para que organizaciones que reutilizan contenidos de forma intensiva, como motores de búsqueda o empresas de inteligencia artificial, accedan a versiones estructuradas y estables de los datos.
Financiados a lomos de la gente
OpenStreetMap tiene una estructura distinta y mucho más descentralizada. La Fundación OpenStreetMap es responsable de los servidores y de la coordinación general, pero gran parte del trabajo procede de comunidades locales que organizan eventos, formación y tareas de mapeo colaborativo. La financiación llega en forma de cuotas voluntarias, patrocinios técnicos y apoyo de organizaciones que utilizan los datos en proyectos logísticos, humanitarios o educativos.
En el caso de Internet Archive, los costes recaen sobre una infraestructura que almacena millones de páginas, documentos y archivos, financiada mediante donaciones individuales, subvenciones de fundaciones y organismos públicos, y servicios de archivado y digitalización para instituciones.

Cuando hablamos de proyectos abiertos, podemos confundir apertura con ausencia de organización. Sin embargo, su funcionamiento se basa en reglas explícitas y estructuras distribuidas. Wikipedia lo ejemplifica mejor que nadie. Las decisiones editoriales no las toma un grupo reducido, sino miles de personas que aplican normas públicas como punto de vista neutral o contenido verificable. No importa el perfil de quien contribuye, sino si su aportación cumple esos criterios. Los administradores pueden intervenir para proteger páginas o resolver disputas, pero su papel es principalmente técnico y de mantenimiento, sin una autoridad editorial jerárquica sobre los contenidos.
OpenStreetMap funciona con una lógica similar, pero sobre datos geográficos: la información se construye desde lo local y se revisa colectivamente para garantizar su coherencia. Hay comunidades regionales que coordinan tareas, organizan encuentros y definen prácticas, pero la base sigue siendo abierta. En el caso de Internet Archive, el proceso no es tanto de edición como de catalogación y preservación, y la colaboración externa se centra en mejorar la calidad de los registros y evitar la pérdida de documentos digitales.
Convivir con los gigantes tecnológicos significa asumir que buena parte del acceso a estos proyectos llega a través de ellos. Una gran parte de los lectores entra en Wikipedia desde un buscador, no escribiendo la dirección a mano, y muchos mapas basados en OpenStreetMap se presentan dentro de aplicaciones comerciales donde la marca visible es otra. Internet Archive, por su parte, actúa como un almacén de referencia al que acuden periodistas, investigadores y organizaciones, pero el usuario medio apenas es consciente de que hay una infraestructura independiente sosteniendo todo eso.
Convivir con los gigantes tecnológicos significa asumir que buena parte del acceso a estos proyectos llega a través de ellos.
Esa dependencia crea tensiones nuevas. Los modelos de inteligencia artificial y los grandes servicios de búsqueda reutilizan a gran escala contenidos y datos generados por comunidades voluntarias, a veces sin una visibilidad clara de la fuente original. Eso incrementa la carga sobre los servidores, complica la planificación de infraestructuras y puede reducir la exposición directa de los proyectos ante el público general, justo el público del que dependen para seguir recibiendo apoyo. La creación de servicios como Wikimedia Enterprise forma parte de esa adaptación: ordenar el acceso masivo sin renunciar a la misión original.
El futuro de estos proyectos está marcado por un desafío constante: seguir siendo útiles sin renunciar a sus principios fundacionales. La inteligencia artificial, los buscadores avanzados y los sistemas que reutilizan información de forma automática aumentan la dependencia de fuentes abiertas, pero también pueden ocultarlas al usuario, reduciendo su visibilidad pública. Wikipedia, OpenStreetMap o Internet Archive se enfrentan a un escenario donde su contenido se consume más que nunca, pero en muchos casos sin que quienes lo consultan sepan de dónde procede. Esa invisibilidad no pone en riesgo su utilidad, pero sí puede afectar a su sostenibilidad, especialmente si se reduce el apoyo directo de la comunidad.
Los proyectos abiertos siguen ahí, pero tampoco están garantizados. Requieren infraestructuras estables, mecanismos para mantener la calidad y comunidades activas que sigan aportando y revisando. Son parte de la arquitectura de conocimiento de Internet, y la cuestión que queda abierta es si la sociedad digital será capaz de seguir sosteniéndolos como bienes comunes, o si acabarán integrados de forma silenciosa en servicios comerciales que solo utilizan sus datos, pero no sus valores.
Imágenes | Xataka con Gemini 3 | Captura de pantalla




