Con el surgimiento de las herramientas de escritura de IA, los editores de Wikipedia tuvieron que enfrentar un ataque de contenido generado por AI lleno de información falsa y citas falsas. Ya, la comunidad de voluntarios de Wikipedia se ha movilizado para tomar represalias contra Ai Sloqui, que el director de productos de la Fundación Wikimedia, Marshall Miller, en comparación con una especie de respuesta de “sistema inmunitario”.
“Están atentos para garantizar que el contenido permanezca neutral y confiable”, explica Miller. “A medida que Internet cambia, a medida que aparece la IA, es el sistema inmune el que se adapta a un tipo de desafío nuevo y para encontrar cómo tratarlo”.
Una forma en que los wikipedios se deslizan a través del lodo es con la “eliminación rápida” de artículos escritos enfermo, Como se indicó anteriormente por 404 medios. A Revisor de Wikipedia Quien expresó su apoyo a la regla dijo que estaban “inundados constantemente con bocetos horribles”. Agregan que la retirada rápida “ayudaría mucho a los esfuerzos para luchar contra él y ahorrar innumerables horas para recoger las correas de IA no deseada”. Otro dijo Las “mentiras y referencias falsas” dentro de las salidas de IA toman “una increíble cantidad de editor experimentado para limpiar”.
Como regla general, los elementos reportados para el retiro de Wikipedia ingresan a un Período de discusión de siete días Durante el cual los miembros de la comunidad determinan si el sitio debe eliminar el artículo. EL La regla recién adoptada permitirá Los administradores de Wikipedia para sortear estas discusiones si una IA genera claramente un artículo y no fue examinado por la persona que lo presenta. Esto significa buscar tres señales principales:
- La escritura dirigida al usuario, como “Aquí está su artículo de Wikipedia sobre …”, o “¡Espero que ayude!”
- Cotizaciones de “absurdo”, incluidas las que tienen referencias incorrectas a autores o publicaciones.
- Referencias inexistentes, como enlaces muertos, ISBN con sumas de control no válidas, o DOI no resuelto.
Sin embargo, estos no son los únicos signos de investigación wikipediana. Como parte de Wikiproject ai limpioque tiene como objetivo abordar un “problema creciente de contenido no revisado y mal escrito en IA”, los editores han puesto Juntos una lista de oraciones y formateo Características que los artículos escritos por chatbot generalmente presentes.
La lista va más allá de llamar al uso excesivo de los guiones de em (“-“) que se han convertido Asociado con chatbots de IAE incluso entiende un uso excesivo de ciertas conjunciones, como “además”, así como un lenguaje promocional, como describiendo algo como “impresionante”. Existen otros problemas de formato que la página aconseja a los wikipedios que también supervisen las citas y los apóstrofes cerrados en lugar de los derechos.
Sin embargo, la página de eliminación rápida de Wikipedia señala que estas características “no deben servir solas como una sola base” para determinar que algo fue escrito por AI, lo que hace que se someta a la eliminación. La política de supresión rápida no es justo Para el contenido de SLOP generado por AI, tampoco. La enciclopedia en línea también permite la rápida eliminación de páginas que acosan su sujeto, contienen cannops o vandalismo, o se casan con “texto inconsistente o charabia”, entre otros.
La Fundación Wikimedia, que alberga la Enciclopedia pero no ha ayudado a crear políticas para el sitio web, no siempre ha visto un ojo con su comunidad de voluntarios en IA. En junio, La Fundación Wikimedia ha tomado un descanso Una experiencia que ha puesto resúmenes generados por AI en la parte superior de los artículos después de haber enfrentado la reacción de la comunidad.
A pesar del punto de vista variable sobre la IA en la comunidad de Wikipedia, la Fundación Wikimedia no está en contra de usarla siempre que conduzca a una escritura precisa y de alta calidad.
“Es una espada de doble filo”, dice Miller. “Esto hace que las personas puedan generar contenido de calidad que los volúmenes más altos, pero la IA también puede ser una herramienta para ayudar a los voluntarios a hacer su trabajo, si lo hacemos correctamente y trabajamos con ellos para comprender las buenas formas de aplicarlo”. Por ejemplo, la Fundación Wikimedia Ya usa ai Para ayudar a identificar las revisiones de los artículos que contienen vandalismo, y su estrategia de IA recientemente publicada incluye el apoyo de editores con herramientas de IA que les ayudarán a automatizar “tareas repetitivas” y traducción.
La Fundación Wikimedia también está desarrollando activamente una herramienta que no se impulsa en AI Llamado modificar el cheque Esto tiene como objetivo ayudar a los nuevos contribuyentes a cumplir con sus políticas y directivas de escritura. Al final, esto podría ayudar a aliviar la carga de las presentaciones de Unvunk generadas por AI. Actualmente, Editar Check puede recordar a los escritores que agregue citas si han escrito una gran cantidad de texto sin uno, así como verificar su tono para garantizar que los escritores permanezcan neutrales.
La Fundación Wikimedia también funciona en Agregar una “comprobación de masa” a la herramienta, que le pedirá a los usuarios que hayan pegado una gran parte del texto en un artículo si realmente lo han escrito. Los contribuyentes tienen Sometieron varias ideas Para ayudar a la Fundación Wikimedia también a confiar en la herramienta, un usuario que sugiere pedir a los autores sospechosos de IA que especifique la cantidad generada por un chatbot.
“Seguimos a nuestras comunidades sobre lo que hacen y lo que encuentran productivo”, explica Miller. “Por el momento, nuestro objetivo de usar el aprendizaje automático en el contexto editorial es más para ayudar a las personas a hacer cambios constructivos, y también para ayudar a las personas que patrullan los cambios a prestar atención a los correctos”.