domingo, diciembre 22, 2024

Riesgos reputacionales de ChatGPT en la comunicación corporativa

ARTÍCULO DE NURIA RABADÁN (COMBOCA) / Indudablemente, 2023 está siendo el año de la eclosión de la Inteligencia Artificial (IA). Si bien ya estaba presente en muchas herramientas digitales que utilizamos a diario, a menudo sin percatarnos, ha sido gracias a Open AI y su creación de ChatGPT que ahora cualquier persona puede experimentar de primera mano esa capacidad y descubrir sus infinitas posibilidades.

Por Nuria Rabadán, directora de ComBoca / 27 de julio de 2023

Los medios de comunicación no cesan en destacar las ventajas y aplicaciones de esta innovadora herramienta en diversos sectores, al mismo tiempo que plantean preocupaciones sobre el impacto que podría tener en los perfiles profesionales, ya que existe la posibilidad de que su labor se vuelva prescindible con la implementación de esta tecnología.

Parece que ChatGPT no se detiene ante nada, y que podemos conseguir cualquier cosa sabiendo hacer la pregunta adecuada a su sistema basado en IA. En el ámbito de la comunicación y la elaboración de contenidos, pensar que hay una solución que nos permite desarrollar los textos de una forma mucho más rápida puede resultar tentador, pero desde ComBoca queremos alertar sobre algunos aspectos que pueden ser perjudiciales para la estrategia de comunicación corporativa.

La relación con medios es un pilar fundamental de las agencias de comunicación, pues de cara al cliente, uno de los objetivos esenciales es conseguir su visibilidad y posicionamiento en ellos. Para lograrlo, es frecuente que contactemos con los periodistas para ofrecerles tribunas de opinión o entrevistas (que en muchos casos se realizan por cuestionario) en las que poder mostrar sus conocimientos como expertos en su área de influencia. ¿Qué puede suceder si ese portavoz al que queremos posicionar cae en la tentación de escribir ese artículo o responder a ese cuestionario mediante ChatGPT?

Tan fácil como utilizar la herramienta es detectar cuándo un texto ha sido elaborado a través de ella y se envía tal cual sale “del horno de la IA”. Y si el periodista identifica que un contenido que se le ha ofrecido como exclusivo ha sido elaborado de forma automática, podemos enfrentarnos a varios inconvenientes y riesgos reputacionales, no solo para la empresa en cuestión, sino también para la agencia que ha actuado como intermediaria:

Pérdida de autoridad. Si se supone que un profesional sabe mucho de algo, debería ser capaz de plasmarlo con sus propias palabras, de forma auténtica y única. De otro modo, estará dando a entender que no sabe lo suficiente de ese tema, y entonces la estrategia de posicionamiento como voz autorizada se desmorona. 

Ausencia de calidad y valor diferencial. Cualquier persona podría haber escrito lo mismo, por lo que el valor añadido que, en calidad de expertos, estamos aportando al medio, desaparece.

Desconfianza. El periodista puede sentirse engañado y defraudado, lo cual puede llevar a que no vuelva a considerar a esa empresa como fuente de información. Esto, a su vez, perjudica a la agencia, que actúa como su representación ante los medios y puede hacerse extensivo a otros clientes.

Perjuicio para la imagen de marca. Todo esto acaba repercutiendo negativamente en la imagen que el periodista tiene de la empresa; e incluso en la de los lectores si llegase a publicarse la información, dado que cualquiera de nosotros somos capaces de reconocer un contenido creado con ChatGPT.

Ante este panorama merece la pena que, como agencia, nos planteemos algunas reflexiones y traslademos algunas consideraciones a nuestros clientes.

Por ejemplo, si detectamos que uno de ellos ha utilizado la IA para escribir un artículo o responder a un cuestionario, podríamos preguntarnos por qué lo ha hecho. Si ha sido porque el portavoz no sabía lo suficiente sobre el tema en cuestión, tal vez no hemos elegido correctamente el enfoque de esa gestión. Es necesario pensar detenidamente los contenidos sobre los que quieren posicionarse, y una vez seleccionados, el portavoz debe esforzarse al máximo. Si ha recurrido a la IA por falta de tiempo, quizás debamos replantear nuestra estrategia de comunicación para adaptarla mejor a las limitaciones reales del cliente. No se trata de estar presente solo por estar: si queremos aparecer en los medios, es para aportar valor. Y si las circunstancias nos lo impiden, quizás sea mejor dar un paso atrás a tiempo.

Uso correcto de ChatGPT

Si bien ha quedado claro que no recomendamos el uso de esta herramienta de Inteligencia Artificial como “máquina de escribir inteligente que se exprese en nuestro nombre”, creemos que puede resultar de gran ayuda si se utiliza adecuadamente y sin perder la autenticidad. ¿Qué podemos hacer con ChatGPT?

Buscar estudios o informes relacionados con el tema que nos ocupa, para recurrir a ellos como fuente de información o para buscar datos que respalden nuestro discurso (es importante tener en cuenta que ChatGPT no proporciona información actualizada a partir de septiembre de 2021, ya que no está conectado a Internet).

Buscar textos legales, bibliografía o información oficial sobre un tema específico que no necesariamente conocemos a fondo, para consultarlos y documentarnos.

Investigar sobre lo que se ha dicho previamente sobre el tema para evitar repetir lo mismo, pero también para captar ideas interesantes que nos ayude a desarrollar nuestro propio argumento o punto de vista.

Localizar citas célebres relacionadas con el contenido que estamos elaborando para incluir alguna (sin abusar) y darle ese “toque distinguido” a nuestra tribuna de opinión.

Pedir alternativas para titulares, listas de temas sobre los que escribir u otras ideas, para luego desarrollarlas nosotros mismos utilizando nuestros propios conocimientos e ideas.

Como siempre se dice, un invento no es bueno o malo por sí mismo, sino que depende del uso que se haga de él. La IA está aquí para quedarse. La clave está en ser capaces de aprovechar sus oportunidades, pero dejando al margen los riesgos.