Cómo un documento de la UNESCO está redefiniendo tu reputación en buscadores, redes y sistemas de IA.

Por Sonia Yánez Blum
Directora de la Academia de Relaciones Públicas
Autora del marco ACA y del Manual Estratégico de IA & Prompts para RR.PP.


Puntos clave de este artículo

  • El 24 de noviembre de 2021, la UNESCO adoptó la primera recomendación internacional sobre la ética de la inteligencia artificial, un hito que hoy impacta directamente en tu reputación digital.

  • Los algoritmos no solo ordenan contenidos: asignan credibilidad y construyen o erosionan autoridad profesional.

  • En América Latina existe un riesgo real de invisibilidad algorítmica: si no estás en las bases de datos que entrenan a la IA, difícilmente existirás para ella.

  • Presento el marco ACA (Auditoría, Criterio, Acción) y el método RICFE como herramientas concretas para proteger tu reputación en la era de la IA.

  • La ética ya no es un lujo académico: es una estrategia de liderazgo y supervivencia reputacional.


24 de noviembre de 2021: el día que pasó desapercibido y lo cambió todo

El 24 de noviembre de 2021 ocurrió un hecho que pocos comunicadores recuerdan, pero que está definiendo —a paso firme y silencioso— nuestro presente digital: la UNESCO adoptó la primera recomendación internacional sobre la ética de la inteligencia artificial. No fue portada de medios ni trending topic. No generó hilos virales ni guerras de opinión en redes. Sin embargo, fue un hito que nos interpela directamente a quienes ejercemos el liderazgo comunicacional en entornos cada vez más mediados por algoritmos.

Ese marco ético, aprobado por más de 190 países, plantea algo que va mucho más allá de la gobernanza tecnológica. Nos obliga a mirar de frente la relación entre:

  • Inteligencia artificial,

  • Visibilidad pública y

  • Reputación profesional.

Porque hoy, los sistemas automatizados no solo organizan la información del mundo: también deciden qué voces se amplifican, cuáles se invisibilizan y cómo se interpreta nuestra identidad profesional cuando alguien pregunta por nosotros en un buscador o en un asistente de IA.


¿Por qué la ética importa ahora más que nunca en IA y reputación digital?

Durante más de dos años he investigado el fenómeno de la autoridad algorítmica desde la comunicación estratégica. Mi tesis —presentada en congresos internacionales— parte de una premisa simple pero contundente:

Los algoritmos no solo filtran contenidos; asignan credibilidad.
Otorgan o quitan estatus.
Y lo hacen con una lógica que muchas veces escapa al control de quienes comunican.

Este análisis se volvió dolorosamente práctico cuando una institución que asesoro fue víctima de un ataque automatizado con contenido falso generado por IA. Su reputación institucional estuvo al borde del colapso.

Tuvimos que activar un dispositivo de emergencia que combinó:

  • Estrategia de comunicación,

  • Acciones legales, y

  • Presión pública coordinada.

Fue un caso pionero: no había protocolos previos. Solo intuición, criterio y la urgencia de responder ante un enemigo invisible que se replicaba a velocidad de máquina.

De esa experiencia nació la necesidad de crear un marco accionable para profesionales de la comunicación. Así surgió ACA (Auditoría, Criterio, Acción): un sistema para evaluar:

  • Cómo la IA nos representa,

  • Qué fuentes utiliza, y

  • Cómo proteger nuestra integridad reputacional en escenarios donde los algoritmos pueden amplificar tanto la verdad como la mentira.


La visibilidad ya no es suficiente: importa cómo te interpreta la IA

Hasta hace poco, las preguntas clave en branding personal eran:

  • “¿Aparezco en Google?”

  • “¿Tengo buena presencia en LinkedIn?”

  • “¿Se ven bien mis redes?”

Hoy, la pregunta más estratégica es otra:

“¿Cómo me interpreta la inteligencia artificial?”

Porque no basta con estar. Hay que entender cómo se construye nuestra imagen cuando quien la comunica ya no es un periodista, un cliente o un colega, sino un sistema automatizado que responde a consultas globales las 24 horas del día.

Estos sistemas —desde buscadores hasta asistentes conversacionales— aprenden de bases de datos públicas. Y si:

  • Tu información está desactualizada,

  • Tus fuentes no son sólidas, o

  • No has ejercido control editorial sobre tu narrativa,

la IA llenará los vacíos con lo que encuentre. O peor: con lo que otros digan de ti, aunque sea impreciso, injusto o malintencionado.

La ética en IA, entonces, no es una aspiración filosófica. Es una práctica diaria que impacta en tu capacidad de:

  • Influir,

  • Liderar, y

  • Sostener una reputación coherente con tus valores en todos los entornos: medios, redes… y ahora también modelos de IA.


América Latina y el riesgo de la invisibilidad algorítmica

Este dilema se vuelve aún más crítico en América Latina, donde las brechas digitales no son solo de acceso, sino de representación.

Muchas voces siguen sin estar adecuadamente documentadas en fuentes que la IA considera “fiables”: bases de datos académicas, medios verificados, organismos multilaterales, repositorios institucionales, etc.

Las consecuencias son directas:

  • Si no estás en las bases que entrenan a los modelos, no existes para ellos.

  • Si existes poco, existes distorsionado.

  • Si tu país o región tiene poca presencia en fuentes de “alta autoridad”, tus logros se diluyen en el ruido global.

Desde la Academia de Relaciones Públicas, hemos identificado patrones preocupantes:

  • Liderazgos femeninos subrepresentados.

  • Emprendimientos sociales omitidos en respuestas automatizadas.

  • Instituciones educativas que no aparecen cuando alguien busca referentes de su área.

  • Casos de éxito locales que jamás llegan a los sistemas que “resumen el mundo”.

Estamos ante una nueva forma de exclusión: la invisibilidad algorítmica.

Frente a este panorama, urge construir una ciudadanía digital crítica que entienda:

  • Cómo operan los sistemas,

  • Cómo alimentar su aprendizaje con datos éticos y diversos, y

  • Cómo reclamar el derecho a ser representados con justicia en cualquier respuesta generada por IA.


La ética como brújula estratégica en comunicación e IA

No se trata solo de evitar el mal uso de la IA. Se trata de rediseñar nuestras prácticas para que cada decisión tecnológica refleje un compromiso con:

  • La equidad,

  • La transparencia, y

  • La verdad.

Eso implica hacernos preguntas incómodas antes de pulsar “publicar” o “generar”:

  • ¿Estoy usando IA para ahorrar tiempo o para manipular percepciones?

  • ¿Estoy alimentando sistemas con datos que refuerzan estereotipos?

  • ¿Estoy produciendo contenido que realmente aporta valor o solo generando relleno digital para complacer algoritmos?

En el Manual Estratégico de IA & Prompts para Comunicadores propongo un enfoque práctico basado en el método RICFE, que permite conversar con la IA desde un lugar de claridad, propósito y conciencia.

No se trata de prohibir, sino de diseñar con criterio:

  • Automatizar lo repetible sin perder la voz.

  • Crear flujos inteligentes sin renunciar a la autenticidad.

  • Integrar la IA en la estrategia sin delegarle el criterio profesional.

La ética no es un añadido. Es el corazón de la estrategia.

Por eso integro principios como transparencia, responsabilidad e inclusión desde la fase de diseño de cualquier contenido automatizado. Porque toda decisión técnica —qué datos uso, qué prompts diseño, qué fuentes priorizo— es también una decisión política.


Cómo se vuelve acción: el decálogo ético para IA en comunicación

En mi práctica profesional y académica, he observado que muchos comunicadores quieren usar IA, pero no saben por dónde empezar sin perder su esencia ni su reputación.

Frente a eso, propuse un decálogo que no pretende ser un dogma, sino una invitación a pensar con rigor.

Hablar de ética en IA no es quedarse en la teoría. Es tomar decisiones concretas, por ejemplo:

  • Reconocer públicamente el uso de sistemas automatizados cuando corresponda.

  • Validar las fuentes que usamos para alimentar nuestros contenidos, especialmente si influyen en decisiones de terceros.

  • Priorizar el consentimiento informado cuando tratamos datos personales o sensibles.

  • Rechazar la instrumentalización de emociones con fines de manipulación, incluso cuando las plataformas la facilitan.

La ética también se ejerce cuando:

  • Decidimos incluir voces diversas en nuestros prompts y ejemplos.

  • Cuidamos la privacidad en los datos que usamos para entrenar modelos.

  • Educamos a nuestros equipos sobre los límites y alcances de la automatización.

  • Documentamos nuestros errores y corregimos nuestras prácticas cuando detectamos sesgos.

Y, sobre todo, cuando dejamos de delegar el criterio humano al entusiasmo tecnológico.


Del marco ACA al liderazgo: reputación en la era algorítmica

La reputación ya no se construye solo con apariciones mediáticas o menciones en redes. Se construye, cada vez más, en las capas invisibles de datos que alimentan los sistemas de IA.

Allí, tu nombre, tu trayectoria y tus logros compiten por espacio con:

  • Datos obsoletos,

  • Narrativas incompletas, y

  • Contenidos generados sin supervisión.

Si no somos parte activa de ese proceso, nos convertimos en víctimas pasivas de él.

Por eso insisto: la ética no es un freno al avance digital; es su condición de legitimidad.

Una inteligencia artificial sin brújula ética puede ser eficiente, pero no confiable. Puede generar impacto, pero no credibilidad.

Los profesionales de la comunicación estamos llamados a liderar esta conversación:

  • No desde el miedo, sino desde la preparación.

  • No desde el rechazo, sino desde el diseño estratégico.

  • No desde la negación tecnológica, sino desde la curaduría responsable.

Porque si algo aprendí en mi recorrido con el método RICFE, es que:

  • Se puede automatizar sin deshumanizar.

  • Se puede innovar sin renunciar al alma.

  • Se puede usar IA para amplificar nuestro propósito, no para diluirlo.


El Decálogo del uso ético de la IA en Comunicación

(Incluido en el Manual Estratégico de IA & Prompts para RR.PP.) que ya puedes adquirir  en Amazon y está en oferta de Lanzamiento. Este libro lo creé, edité y actualicé varias veces, desde ciudades, cafés, aeropuertos, hospitales y salas de espera. Pero, sobre todo, lo escribí desde una necesidad urgente que veo cada día: la comunicación ha cambiado, pero muchos profesionales siguen usando herramientas del siglo pasado para problemas del siglo actual.

Es parte de mi metodología de enseñanza y lo aplico cada día.

Son más de 300 prompts para la comunicación y las RR.PP. Es un componente activo de mi taller de prompting y un plan piloto para una nueva forma de aprender con IA.

Cada página que ves ahí fue discutida, reescrita y probada en proyectos reales con marcas, agencias y DIRCOMs. Nada improvisado. Nada teórico. Todo aplicable.

Este libro no es un proyecto editorial.
Es una declaración.

Una forma de decir: “La IA sí puede ser usada con ética, con estrategia y con humanidad… si sabemos cómo”. A continuación te comparto mi decálogo:

  1. Transparencia: declara cuándo y cómo usas IA en tu trabajo.

  2. Autenticidad: no delegues tu voz ni tu criterio a sistemas automatizados.

  3. Rigurosidad: valida la información generada por IA antes de compartirla.

  4. Propósito: asegúrate de que la tecnología sirva a un fin humano, no al revés.

  5. Inclusión: usa IA para visibilizar perspectivas diversas, no para replicar sesgos.

  6. Consentimiento: no uses datos o imágenes sin autorización, aunque estén «disponibles».

  7. Responsabilidad: si la IA comete errores, tú sigues siendo la o el responsable.

  8. Limitación: no uses IA para manipular emociones o percepciones sin justificación ética.

  9. Seguridad: protege tu información personal y la de otros ante sistemas que registran todo.

  10. Capacitación continua: actualízate sobre el desarrollo de IA y su impacto en tu área profesional.

El 24 de noviembre como recordatorio de futuro

Cada 24 de noviembre deberíamos hacernos tres preguntas, como mínimo:

  1. ¿Cómo estoy usando la inteligencia artificial en mi profesión y en mi organización?

  2. ¿Estoy honrando mi voz o la estoy diluyendo en contenidos genéricos generados por IA?

  3. ¿Estoy ampliando mi impacto o solo sobreviviendo al ritmo digital?

La ética no es la antítesis de la innovación. Es su mejor aliada.

Porque solo cuando actuamos con integridad podemos sostener una reputación:

  • Coherente,

  • Resiliente, y

  • Profundamente humana.

El 24 de noviembre no es solo una efeméride. Es un llamado a ejercer liderazgo desde la conciencia digital, el criterio ético y la acción informada.
La reputación ya no se juega solo en medios o redes. Hoy, se decide también en los silenciosos circuitos de datos que interpretan, filtran y deciden por nosotros.

“No le temo a la inteligencia artificial. Le temo al uso inconsciente y desinformado de ella. La ética no limita. La ética libera.”
— Sonia Yánez Blum

Debemos estar conscientes, que  ante la creciente búsquedas de respuestas e información ante herramientas IA, cada vez más el juicio final lo hacen los algoritmos, ser ético no es una opción. Es una forma de resistencia. Y de liderazgo.

Preguntas frecuentes sobre ética, IA y reputación digital

1. ¿Qué ocurrió el 24 de noviembre de 2021 con la inteligencia artificial?
El 24 de noviembre de 2021 la UNESCO adoptó la primera recomendación internacional sobre la ética de la inteligencia artificial. Aunque pasó casi desapercibida en medios, hoy influye en cómo se diseñan políticas públicas, marcos regulatorios y estándares de responsabilidad para el uso de IA en todo el mundo.

2. ¿Qué es la autoridad algorítmica en comunicación y reputación?
La autoridad algorítmica es el poder que tienen los algoritmos para decidir qué contenidos, personas e instituciones aparecen primero en buscadores, redes y asistentes de IA. No solo ordenan información: también asignan credibilidad y estatus a las voces que muestran… y silencian a las que no.

3. ¿Qué es la invisibilidad algorítmica y por qué afecta especialmente a América Latina?
La invisibilidad algorítmica ocurre cuando personas, proyectos o instituciones casi no aparecen en las bases de datos que usan los sistemas de IA como fuente. En América Latina esto es especialmente grave porque muchas iniciativas no están documentadas en medios o repositorios de “alta autoridad”, lo que reduce su presencia en respuestas automatizadas.

4. ¿Cómo puede un profesional de la comunicación proteger su reputación frente a la IA?
El primer paso es auditar cómo aparece hoy en buscadores y asistentes de IA, identificar vacíos y corregir información desactualizada. A partir de ahí, frameworks como ACA (Auditoría, Criterio, Acción) y metodologías de prompts como RICFE permiten diseñar contenidos, relatos y datos que refuercen una reputación ética, coherente y verificable.

5. ¿Por qué la ética es ahora una ventaja competitiva en reputación digital?
Porque en un entorno saturado de automatización y contenido generado por IA, las marcas y profesionales que demuestran criterios éticos claros —transparencia, fuentes verificables, respeto a la privacidad y diversidad de voces— se convierten en referentes confiables. La ética deja de ser un discurso y se vuelve un factor tangible de liderazgo.