Uno de los problemas más destacados de la IA en lo que respecta a la creación de contenido es la confianza. Los lectores se sienten engañados cuando abren un reel de Instagram, un artículo de noticias o un tweet y sus sentidos arácnidos comienzan a hormiguear.
“Algo se siente raro. ¿Esto es IA?” Y ahí está. La pregunta que muchas personas tienen miedo de hacerse estos días: ¿Es x cosa IA?
Bueno… tal vez. Hemos llegado a un punto donde las imágenes generadas por IA son sorprendentemente realistas, y también lo son las salidas de voz, video y definitivamente texto.
El problema de publicación
Pero el problema de la confianza no reside exclusivamente dentro de la IA. Es un problema de publicación. Los creadores de contenido están usando cada vez más herramientas de IA para generar contenido sintético y estos resultados no están siendo etiquetados adecuadamente. Mientras una agencia de marketing puede ser directa al declarar que sus campañas más recientes se desarrollan parcial o totalmente con IA, otros negocios prefieren no divulgar información sobre sus procesos creativos.
¿Pero por qué es así? Todos sabemos sobre la proliferación de modelos de IA de código abierto y cómo diferentes compañías alrededor del mundo están llevando los costos de su uso a casi cero. No hay ventaja competitiva en usar IA para escribir publicaciones de blog, crear imágenes de redes sociales o generar videos sin intervención humana. Al menos, dicha ventaja no dependería del uso de IA ya que cualquiera tiene acceso a estas herramientas hoy. Entonces, ¿por qué el secreto?
Cómo lo vemos en Dailybot
En Dailybot, por ejemplo, amamos la IA en algunos aspectos y no en otros. Ciertamente nos encanta ver a nuestros PMs o diseñadores aprovechando herramientas de IA para prototipar nuevas herramientas y cerrar la brecha entre desarrolladores y equipos de producto. No somos grandes fanáticos de sostener la IA sobre las cabezas de las personas como una amenaza permanente de que puedan perder sus trabajos pronto porque sus trabajos se han vuelto “obsoletos.”
Valoramos la IA como una herramienta que libera exponencialmente el tiempo de los trabajadores y reduce el trabajo tedioso para que las personas puedan enfocarse en tareas más importantes. Para descubrir una forma segura para que la IA cumpla este rol, debemos ser proactivos en abogar por el uso responsable de las herramientas, tecnologías y flujos de trabajo que abarcan este nuevo ecosistema.
Mirando hacia adelante
A medida que la inteligencia artificial madura, eventualmente encontraremos sistemas que despliegan, mantienen y deprecian IAs para todo tipo de trabajos en el futuro. Es de nuestro mejor interés adelantarnos y proponer formas más ordenadas, sistemáticas y responsables de usar IA que realmente beneficien a la humanidad. Sistemas que mantengan la integridad en la forma en que educamos o entretenemos a las personas con su contenido, y no sean solo el subproducto de una falsa carrera armamentista hacia el siguiente objetivo empresarial.
Un centavo por tus pensamientos
Todavía estamos lejos de soluciones definitivas al problema de confianza del contenido generado por IA, pero aquí hay una idea: ¿qué tal si creamos espacios designados para la IA dentro de las limitaciones de cada proyecto?
Por ejemplo, si tu negocio quiere implementar IA en tu estrategia de contenido, ¿por qué no delinear desde el principio un conjunto de reglas que todos deban seguir? De esta manera proteges tus flujos de trabajo editoriales y puedes ser transparente con tu audiencia sobre qué flujos de trabajo específicos usan IA y en qué medida y qué es todo humano.
Es más que comprensible si algunas personas no quieren interactuar con IA en absoluto, pero a medida que esta tecnología evoluciona, el problema solo se volverá más difícil a medida que el contenido generado por IA sea más difícil de distinguir. Tomar acción y crear espacios designados para que la IA haga su trabajo mientras tú haces el tuyo parece un primer paso en la lucha contra un mundo donde “nada es auténtico.”