Ganó el humano: contenido hecho con IA queda vetado de Wikipedia
La medida, aprobada por la Fundación Wikimedia, es una respuesta directa al crecimiento acelerado de la llamada “basura de IA”.
De ahora en adelante, cada vez que entres a Wikipedia, la reconocida enciclopedia online, te encontrarás con información redactada 100% por humanos de carne y hueso, y no por una herramienta de inteligencia artificial (IA).
Un punto a favor del ser humano
La medida, aprobada por la Fundación Wikimedia, es una respuesta directa al crecimiento acelerado de la llamada “basura de IA” en internet, un fenómeno que incomoda a los más de 260 mil editores voluntarios de la enciclopedia en línea.
La nueva normativa prohíbe utilizar modelos de lenguaje como ChatGPT para redactar contenido enciclopédico ya que, según los responsables de Wikipedia, estos sistemas suelen generar información poco fiable, con errores conocidos como “alucinaciones”, es decir:
- Datos inventados
- Referencias inexistentes o
- Enlaces que no conducen a fuentes reales.
Wikipedia considera que este tipo de contenido viola sus principios fundamentales, especialmente los relacionados con la verificabilidad y la neutralidad, pilares que han sostenido su reputación durante más de dos décadas.
“Empezamos a notar muchos artículos con un estilo que no coincidía con el habitual en Wikipedia”, declaró Ilyas Lebleu, editor de Wikipedia y miembro del equipo de limpieza de IA.
IA sí, pero con supervisión humana
Si bien la prohibición es clara, la plataforma no cierra completamente la puerta a la tecnología. Cabe aclarar que los editores podrán usar IA para casos específicos, como lo es traducir artículos o sugerir correcciones menores, siempre que no se introduzca información nueva sin revisión humana exhaustiva.
Además, Wikipedia ya cuenta con guías específicas para detectar contenido generado por bots. Entre las señales de alerta destacan:
- Citas inexactas o falsas
- Uso repetitivo de frases o clichés
- Explicaciones excesivamente largas
- Cambios bruscos de estilo
Los textos que resulten sospechosos son revisados por la comunidad, que puede modificarlos o bien, eliminarlos si no cumplen con los estándares.
Para el cofundador de Wikipedia, Jimmy Wales, las nuevas herramientas tecnológicas son poco fiables y algo caóticas, razón suficiente para no dejar que la IA haga todo nuestro trabajo.
Más allá de Wikipedia, expertos advierten que esta decisión podría marcar tendencia en otras plataformas digitales. Lebleu incluso anticipa un posible “efecto dominó”, donde distintas comunidades en línea comiencen a definir sus propias reglas frente al avance de la inteligencia artificial.
Con información de New York Post
