La inteligencia artificial en el periodismo, ¿amigos o enemigos?
Con el surgimiento de la IA se ha generado una serie de mitos, prejuicios y polémicas respecto a la implementación de esta herramienta en labores periodísticas. Este artículo busca esclarecer su convivencia.
En el último siglo, la tecnología ha avanzado a pasos agigantados. Dentro de ese progreso han surgido herramientas revolucionarias, pero a la vez controversiales; un ejemplo de estas es la inteligencia artificial. Desde su invención y acceso al público, su uso ha facilitado y automatizado las labores de muchos rubros, sobre todo, en áreas conectadas directamente con herramientas digitales.
Uno de los campos en los que la inteligencia artificial puede ser una herramienta útil es el periodismo; sin embargo, en este ámbito debe cumplirse con un elemento primordial: la credibilidad. A partir de ese requisito, si la aplicación de la IA en labores periodísticas no se realiza de manera adecuada, puede ser perjudicial para la confianza del público y la reputación del periodista ante la sociedad.
Lee también: Música generada por IA puede emocionar más que la humana, según estudio
Para muchos, el uso de la IA en áreas donde están implicados el criterio, la ética, la sensibilidad y la investigación debe ser totalmente descartado. Este prejuicio nace bajo el propio concepto de la inteligencia artificial: una máquina basada en algoritmos y modelos matemáticos que procesa grandes cantidades de datos para imitar la inteligencia humana. Por esta razón, la sociedad se muestra escéptica ante la credibilidad de un trabajo 100 % hecho con IA.
Otros debates que giran en torno a la inteligencia artificial son el reemplazo de la mano de obra humana por máquinas y las regulaciones éticas sobre su uso. Sin embargo, todos estos pensamientos y prejuicios respecto a la implementación de la IA en el campo periodístico no son del todo ciertos. Para esclarecer la convivencia entre ambos, El Diario de Hoy conversó con dos especialistas vinculados con la IA: Elizabeth Arce, editora de audiencias y estratega en medios digitales, y Emerson Contreras, investigador y docente de la Escuela Mónica Herrera.

Riesgos de la IA
Elizabeth Arce explica que delegar decisiones editoriales a una inteligencia artificial puede ser riesgoso, principalmente porque estas implican juicios éticos, elección de enfoques o definición de agendas informativas. “Nunca se debería delegar a la IA (...) Elegir qué historias cubrir, cómo narrarlas y con qué profundidad es un acto político y humano. La IA no tiene contexto social, sensibilidad cultural ni capacidad de asumir responsabilidad ética”, dijo Arce.
También detalló cuáles son los riesgos de que no haya intervención humana en el uso de la IA para aspectos editoriales: “El principal riesgo es la deshumanización de la narrativa: se pueden reproducir sesgos sistémicos, invisibilizar voces vulnerables y priorizar lo que funciona algorítmicamente sobre lo que importa democráticamente”. Además, dejó en claro que al no verificar humanamente se corre el riesgo de caer en la desinformación. “La IA genera texto, pero no genera contexto ni comprensión del impacto social”, concluyó.
Sin embargo, esto no significa que la IA deba ser descartada por completo del área editorial. Los periodistas pueden trabajar en conjunto con estas herramientas, siguiendo protocolos para validar la información. Emerson Contreras explicó uno de ellos: “nunca pedir a una IA un trabajo que los periodistas no puedan verificar con sus conocimientos”. Por su parte, Arce coincide y determina cuatro protocolos clave: triage humano (leer y editar), revisión cruzada (contrastar fuentes y coherencia), etiqueta de su uso (informar que se usó IA y cómo), y por último, una revisión ética.
Elizabeth justificó estos protocolos señalando los errores más comunes que cometen los periodistas al usar IA. Un error es asumir que todo lo que genera la IA es verídico, ya que estas pueden inventar información que suene convincente. “Todas las herramientas te dicen que 'son una inteligencia artificial' y que 'pueden cometer errores'”, respaldó Contreras. Otro fallo es no contextualizar los resultados con realidades locales, ya que las IA están entrenadas mayormente con datos anglosajones. Por último, permitir que el texto suene frío o genérico. “El estilo, el ritmo, la voz propia del medio no son negociables”, explicó Arce, quien advierte que dejar que el texto suene a IA puede alejar a la audiencia.

¿Cómo usar IA en periodismo?
Teniendo claro que sí es posible implementar la inteligencia artificial bajo protocolos en el ámbito periodístico, ambos especialistas explicaron en qué tareas es seguro utilizarla y cuáles herramientas pueden ser útiles. La estratega digital Elizabeth Arce detalló cinco labores que la IA puede realizar en una redacción: transcripción de entrevistas, subtitulado de videos, edición de clips para redes sociales, análisis de datos web y generación de borradores para copies, boletines o titulares. Aclaró que siempre debe hacerse una revisión humana.
Por su parte, el investigador Emerson Contreras coincidió en varias tareas señaladas por Arce, pero también agregó otras como la revisión ortográfica y gramatical del borrador. “Yo le veo incluso potencial en su uso para preparar guiones de preguntas para entrevistas, idear temas y nuevas formas de contar la historia, entre otras”, detalló Contreras. Además, expresó que el buen uso de la IA para estas tareas depende de la capacidad del periodista para entender sus fortalezas, pero también sus metodologías.
Arce también recomendó herramientas basadas en IA que son útiles para periodistas. Una de ellas es “Whisper”, para hacer transcripciones multilingües, ya que tiene una tasa de error menor al 5 % al transcribir en español. Para editar clips sugiere “Descript” y “Opus Clip”. Como asistente de redacción, síntesis o lluvia de ideas recomienda “ChatGPT” y “Claude”. Por último, propone “Semrush” + “Copilot”, gracias a una nueva función que puede aportar datos para crear notas que respondan a búsquedas reales de la audiencia.
Desde la perspectiva de Contreras, otras herramientas de IA que pueden ser útiles son: “Perplexity”, ya que ofrece respuestas respaldadas por fuentes confiables; para la transcripción de entrevistas recomienda “Pinpoint”; y para crear guiones, escaletas o adaptar contenido coincide con “ChatGPT”. Para el aspecto multimedia sugiere “Suno”, por su capacidad para crear música para videos y publicaciones.

Responsabilidad ética
Con la implementación de la inteligencia artificial para simplificar labores, surge un debate moral y ético. Para Arce, es absolutamente necesaria la transparencia sobre su uso ante la sociedad: “Es parte del nuevo pacto con las audiencias. Informar si se usó IA para transcribir, subtitular, crear clips, redactar borradores o generar gráficos contribuye a construir confianza y eleva los estándares del oficio”. Por su parte, Contreras coincidió y advirtió: “Para el futuro cercano, los medios que decidan integrarla de una manera más institucionalizada deberán trabajar en políticas de uso”.
Además, poco a poco se van estableciendo códigos éticos sobre el uso de la IA en el periodismo. Elizabeth informa que estos están creciendo, y que la UNESCO impulsa principios como la transparencia, la responsabilidad y la protección de derechos humanos frente al uso de la inteligencia artificial. También señala que medios como “AP” y “Reuters” desarrollan sus propias guías para asegurar su uso. Por su parte, Emerson cree que el gremio debería ir definiendo su implementación y señala: “Deben de haber tres elementos claves a considerar: el uso ético de la IA, la transparencia en su utilización y el impacto ambiental”.
Te puede interesar: ChatGPT Agent, la nueva inteligencia artificial que ejecuta acciones por ti
¿Amigos o enemigos?
Luego de esclarecer los riesgos de la IA, las formas seguras de implementarla y los códigos éticos a seguir, se puede concluir que los periodistas pueden ser compañeros de la IA, pero bajo ningún concepto ser reemplazados. Arce lo resume en una frase: “La IA debe ser copiloto, nunca piloto automático”, dejando en claro que se puede hacer uso de esta herramienta, pero siempre debe tener supervisión humana. Contreras añadió: “Es importante que los periodistas también se formen en entender cómo funcionan estas herramientas de IA y cuáles son sus limitantes”.
Así que el mito de que la IA les quitará su trabajo es falso: “Una IA puede estructurar datos, pero no puede ir al terreno, hacer preguntas incómodas y conectar con la gente. No puede oler el miedo ni detectar una contradicción en la mirada de un funcionario. El periodismo es presencia, es calle, es criterio. Y eso no se entrena con datasets”, finalizó Arce.

CONTENIDO DE ARCHIVO: