"Responsabilidad editorial en tiempos de IA Generativa", por David Fernández Quijada
- La Inteligencia Artificial plantea enormes debates en la sociedad de nuestros días: éticos, morales, económicos y por supuesto judiciales. El autor de este artículo, publicado originariamente en la revista RedTech News, en su número especial sobre IA y radio, experto en investigación de audiencias, plantea preguntas como ¿Qué usos de la IAGen son legítimos en la creación de contenidos? ¿Cuáles son los límites? ¿Cómo afectan estas nuevas herramientas a los principios periodísticos?
Estamos obligados a convivir con la IA (Fotografía Pixabay) |
"La transparencia es otro elemento compartido: todas las directrices indican la necesidad de informar explícitamente al público sobre el uso de las herramientas de IAGen, por ejemplo directamente antes y después de una emisión o al principio de un reportaje online o en las redes sociales. Sin embargo, el grado de transparencia y la intervención mínima de IAGen para que se considere necesario mencionarlo varían según las directrices. También hay áreas de desacuerdo: algunas directrices prohíben estrictamente el uso de la síntesis de voz, mientras que otras la permiten en determinadas circunstancias"
Todo cambia para que todo
siga igual
Algunas cosas no cambian a pesar de las innovaciones tecnológicas: los editores son responsables de la exactitud, imparcialidad, originalidad y calidad de cada palabra de sus historias. Sin embargo, la generación automatizada de contenidos cuestiona el significado tradicional de esta responsabilidad y el papel de quienes se ocupan de garantizarla.
Existe una percepción generalizada y cada vez más pruebas de que, en su fase actual de desarrollo, las herramientas IAGen son más propensas que los humanos a cometer errores y plagios, a incluir sesgos y a infringir los principios de imparcialidad y los derechos de autor.
Sin embargo, el genio ya está fuera de la botella. La adopción de herramientas IAGen es inevitable dada su capacidad para automatizar con éxito tareas repetitivas y tediosas y aumentar ciertas tareas creativas. Los proveedores de tecnología comparten esta percepción y están actualizando rápidamente sus productos y servicios para añadir capacidades de IAGen. Por tanto, será difícil que las emisoras de radio y otros actores de los medios eviten la IAGen.
Para los editores de radio y audio, el reto clave es cómo aumentar la productividad y la eficiencia con estas herramientas sin comprometer la responsabilidad editorial.
Directrices editoriales
Algunas empresas pioneras ya han redactado y, en algunos casos, compartido públicamente directrices voluntarias sobre el uso de la IA y/o IAGen. Esto responde a las preocupaciones de los usuarios sobre la IA en los medios de comunicación. Estas directrices son también una poderosa herramienta para ayudar a las redacciones y a los creadores de contenidos. Sus asesores jurídicos también sugieren que pueden ser una excelente manera de evitar dolores de cabeza legales.
En South 180 analizamos 17 de estas directrices formales elaboradas por las principales cadenas, editores, agencias de noticias y organismos de autorregulación de ocho países europeos, además de Estados Unidos y Canadá. ¿Qué tienen en común estas directrices? Principalmente, que se basan en principios y prácticas periodísticas y se focalizan en las redacciones. En muchos casos, no queda claro si las directrices cubren también al personal que trabaja en contenidos de entretenimiento, educativos o de otro tipo.
"Algunas cosas no cambian a pesar de las innovaciones tecnológicas: los editores son responsables de la exactitud, imparcialidad, originalidad y calidad de cada palabra de sus historias. Sin embargo, la generación automatizada de contenidos cuestiona el significado tradicional de esta responsabilidad y el papel de quienes se ocupan de garantizarla"
Todas las directrices reconocen las ventajas de la IAGen para innovar y desarrollar sus servicios con el fin de ofrecer un valor añadido a los usuarios. Sin embargo, existe un acuerdo generalizado sobre la necesidad de una decisión final humana y la responsabilidad también humana sobre el material distribuido.
La transparencia es otro elemento compartido: todas las directrices indican la necesidad de informar explícitamente al público sobre el uso de las herramientas de IAGen, por ejemplo directamente antes y después de una emisión o al principio de un reportaje en línea o en las redes sociales. Sin embargo, el grado de transparencia y la intervención mínima de IAGen para que se considere necesario mencionarlo varían según las directrices. También hay áreas de desacuerdo: algunas directrices prohíben estrictamente el uso de la síntesis de voz, mientras que otras la permiten en determinadas circunstancias.
Otras preocupaciones son específicas de ciertos radiodifusores; por ejemplo, el uso de modelos dialectales para aplicaciones de voz a texto que reflejen la diversidad social dentro de los territorios servidos por ese radiodifusor. En un caso, se prohíbe explícitamente utilizar material no publicado para alimentar sistemas de aprendizaje automático, una práctica periodística razonable.
También hemos detectado intentos de elaborar marcos a nivel sectorial, como la Partnership on AI, creada en su mayoría por empresas tecnológicas, entre ellas OpenAI, creadora de ChatGPT. A diferencia de las directrices publicadas por los medios de comunicación, ninguno de estos marcos es vinculante. Seguramente, este enfoque autorregulador, ya sea a nivel de empresa o de industria, no impedirá el desarrollo y la aplicación de una regulación formal. Esto es lo que se espera de la Ley de Inteligencia Artificial de la UE y de debates similares en otras jurisdicciones como EE.UU. y Australia.
Estrategia de
responsabilidad editorial
A partir del análisis de
estas directrices, he aquí algunas recomendaciones personales para abordar la IAGen
y la responsabilidad editorial:
La radio no es el único ámbito afectado por la irrupción de la IA (Fotografía Pixabay) |
Crea tu propio marco para
definir tu enfoque de IAGen: tu propósito y tus valores deberían ser un
excelente punto de partida.
Evita la disrupción y la confusión
abordando la cuestión sin demora. Si crees que no dispones de los recursos o
habilidades necesarios, busca apoyo para poner en marcha este proceso. Esta disrupción
no es opcional, y los rezagados pagarán un alto precio.
Evalúa los riesgos
empresariales que implica y consulta a tus asesores jurídicos sobre las
implicaciones actuales y potenciales de utilizar modelos y aplicaciones IAGen
propios y de terceros. En este último caso, plantea también estas cuestiones a tus
proveedores.
Da prioridad a tu enfoque ético de IAGen. Considera definir tus propias directrices editoriales de IAGen y hacerlas públicas. Esto no solo orientará a tus equipos sino que también preservará la confianza de tu audiencia.
Relacionado:
-Las voces reales se rebelan contra las voces virtuales
-"La radio del futuro: ¿mejor o más barata?", por Gorka Zumeta
-RadioGPT: nace la primera emisora de radio dirigida por una IA
-“La nueva radio artificial”, por Juanma Ortega
-Locutores y periodistas sustituidos por bots
-Primer podcast creado con Inteligencia Artificial, por Prodigioso Volcán
-El futuro de la radio requiere aceptar los cambios y tomar decisiones audaces
-La nueva IA de Microsoft puede simular la voz de cualquier persona con solo 3 segundos de audio