Cambios tecnológicos: cómo las olas digitales dan forma a las elecciones y la democracia. -Megan Shahi
Megan Shahi, directora de Política Tecnológica de American Progress, profundizó en el papel de las redes sociales y la tecnología de inteligencia artificial en la configuración de las elecciones estadounidenses de 2024.
Esto es más importante que nunca, ya que el auge de las tecnologías de inteligencia artificial permite la creación de fabricaciones y distorsiones sofisticadas, lo que hace que sea cada vez más difícil distinguir entre lo que es real y lo que no lo es. En su análisis en profundidad, Megan examinó cómo las principales plataformas de redes sociales, el contenido generado por la IA, las teorías conspirativas, la desinformación y la falta de regulación en el espacio tecnológico están moldeando las opiniones de los votantes y, en algunos casos, incluso los resultados de las elecciones.
La presentación también destacó varias preocupaciones urgentes, como la necesidad de identificar fuentes confiables de información fidedigna en una era dominada por la IA y los deepfakes, la susceptibilidad del público a la manipulación, los peligros de la persuasión dirigida y la evidente ausencia de regulaciones federales que rijan la tecnología en los Estados Unidos.

Los peligros de la desinformación
Megan explicó cómo las herramientas de inteligencia artificial pueden utilizarse indebidamente para difundir rápidamente información falsa o engañosa en las redes sociales, distorsionando el discurso público, manipulando las opiniones de los votantes y socavando los procesos democráticos. La preocupación ética radica en el uso deliberado de la IA para engañar e influir en las decisiones con contenido inventado y teorías conspirativas, algo que hemos presenciado con frecuencia en este año electoral.
Más recientemente, en septiembre de este año, El guardián informó sobre un incidente de desinformación que tuvo lugar en un momento crítico de las elecciones presidenciales de 2024: después de que Joe Biden se retirara de la carrera presidencial, la información errónea comenzó a difundirse en Internet con capturas de pantalla en las que se afirmaba que no se podía añadir un nuevo candidato a las papeletas en nueve estados. Esto acumuló rápidamente millones de visitas en Twitter, ahora X, y dio lugar a solicitudes de verificación de datos para estas publicaciones, que simplemente eran incorrectas, ya que los plazos de votación no habían pasado y Kamala Harris aún tenía tiempo de sobra para añadir su nombre a las papeletas. ¿Cuál es la fuente de la información errónea? El chatbot de inteligencia artificial de Twitter, Grok. Cuando los usuarios le preguntaron a Gronk si un nuevo candidato aún estaba a tiempo de ser agregado a las papeletas, respondió incorrectamente.
Finalmente, esto se corrigió y ahora el chatbot dirige a los usuarios a un sitio web diferente, http://vote.gov, cuando se le preguntó acerca de las elecciones. Sin embargo, a pesar de la naturaleza relativamente inocua de este incidente de desinformación, dado que no habría impedido que la gente emitiera su voto, abordó un tema más importante: lo fácil que es difundir información errónea a lo largo y ancho utilizando una plataforma de redes sociales. No solo eso, sino que Grok también puede generar imágenes extremadamente realistas que contribuyen a las divisiones partidistas y pueden engañar a la gente en un grado sin precedentes.
El auge de la tecnología deepfake
Megan sostuvo que el auge del contenido deepfake impulsado por la inteligencia artificial representa una grave amenaza, ya que puede usarse para engañar al público, dañar la reputación o incluso influir en los resultados electorales. Los deepfakes son vídeos, imágenes o audios hiperrealistas, pero totalmente inventados, creados con inteligencia artificial, que a menudo muestran a personas reales o ficticias en escenarios convincentes pero falsos. Si bien algunos deepfakes pueden ser fáciles de detectar para un ojo experto, son mucho más difíciles de identificar para quienes no están familiarizados con la tecnología o son menos expertos en tecnología. Lamentablemente, las personas de más edad son particularmente vulnerables a las estafas de tipo deepfake, ya que a menudo carecen de los conocimientos digitales que poseen las generaciones más jóvenes.
Persuasión dirigida y susceptibilidad pública
La capacidad de la IA para analizar grandes cantidades de datos ha permitido la microsegmentación, en la que grupos o individuos específicos reciben contenido personalizado diseñado para influir en sus creencias y acciones. Esto plantea problemas éticos en relación con la explotación de datos personales con fines de manipulación política o ideológica, que a menudo se produce sin el conocimiento o el consentimiento de las personas afectadas. Dada la eficacia de estas tácticas de persuasión específicas, no es de extrañar que los analistas financieros se hayan referido a los datos digitales sobre el comportamiento de las personas como «más valioso que el petróleo».
¿El problema general? ¿La falta de regulaciones federales
En última instancia, explicó Megan, el problema depende de la falta de regulaciones que rijan el uso de la IA y las tecnologías de las redes sociales en las campañas políticas y elecciones en los EE. UU. y más allá. Sin una supervisión adecuada, el uso indebido de las herramientas de inteligencia artificial puede persistir sin control, lo que propicia prácticas nocivas que ponen en peligro la integridad de los sistemas democráticos. Además, el ritmo al que evoluciona la tecnología, especialmente en lo que respecta a la creación de noticias falsas, supera con creces el desarrollo de políticas para regularla, por lo que se requieren esfuerzos importantes para cerrar esta brecha.
En general, esta sesión ofreció información invaluable sobre el profundo impacto de la IA y las redes sociales en la democracia. Desde la difusión de la desinformación hasta las amenazas que suponen los contenidos falsos y la persuasión selectiva, el uso indebido de estas tecnologías socava los procesos electorales. La necesidad urgente de una regulación es evidente; como destacó Megan Shahi, el rápido avance de la IA ha superado el desarrollo de políticas, lo que ha dejado brechas críticas en la supervisión. Abordar estas preocupaciones éticas exige una acción rápida y el compromiso de fomentar un electorado más informado y resiliente ante la disrupción digital.
¿Está interesado en obtener más información sobre este tema? ¡Comunícate con Megan Shahi en LinkedIn!
GenAI se une a la computación afectiva. Nuestras nuevas relaciones. -Sophie Kleber
En esta sesión, Sophie Kleber, directora de experiencia de usuario de Google, abordó una pregunta fundamental: ¿cómo podemos diseñar personalidades virtuales que respeten la singularidad humana en lugar de convertirnos en aduladores digitales que explotan nuestras vulnerabilidades?
Esta presentación giró en torno al concepto de las computadoras como actores sociales y exploró las debilidades humanas al interactuar con las tecnologías humanoides, destacando los desafíos éticos y las responsabilidades que implica la creación de una IA emocionalmente inteligente.

¿Dices «por favor» y «gracias» a ChatGPT?
Sophie Kleber postuló que tendemos a llenar los vacíos y establecer relaciones cuando la tecnología imita el comportamiento humano, un efecto conocido como el «efecto Eliza», que es más generalizado de lo que creemos. Tomemos ChatGPT, por ejemplo: ¿Te encuentras diciendo «por favor» y «gracias»? Sabes que es solo una computadora que transmite información, no una persona del otro lado. Sin embargo, su tono conversacional natural nos impulsa a seguir las mismas convenciones sociales de cortesía que usaríamos con una persona real, como si tuviéramos miedo de ser groseros, incluso con una máquina.
¿Estamos entablando relaciones románticas con la IA?
¿Decir «por favor» y «gracias» a ChatGPT es intrínsecamente problemático? No necesariamente, pero apunta a un problema mayor: nuestra tendencia a humanizar la tecnología. Sophie explicó que, en un extremo del espectro, tenemos interacciones puramente transaccionales, similares a las de los robots, como ocurría con las primeras versiones del Asistente de Google. Por otro lado, vemos conexiones muy personalizadas e incluso íntimas, como las relaciones que algunas personas tienen con «Alexa», incluso tratándola como si fuera un miembro de la familia. En casos más extremos, la tecnología se humaniza tanto que las personas forman vínculos románticos, como se ve en la película Su. Más allá de la ficción, los programas de IA como «Replika» y «Xiaoice» van un paso más allá: a Xiaoice le dicen «Te quiero» más de 20 millones de veces. La evidencia es clara: personas de todo el mundo están entablando relaciones emocionales, incluso románticas, con la IA.
Ante esto, Sophie nos insta a reconocer que, si bien la IA puede mejorar las interacciones, nunca debe verse como un sustituto de las relaciones humanas genuinas. Si bien la IA puede detectar patrones y generar respuestas mediante algoritmos predefinidos, carece de una comprensión matizada de las emociones humanas y es incapaz de experimentar sentimientos y tener capacidades cognitivas, como la conciencia y las reacciones emocionales, es decir, la sensibilidad. En otras palabras, la IA no está diseñada para satisfacer las necesidades psicológicas humanas, ya que la imitación no es lo mismo que la empatía, y la IA solo es capaz de hacer lo primero.
Pero, ¿quién tiene la responsabilidad de establecer límites con la IA?
La pregunta sigue siendo: ¿quién es responsable de definir los límites en nuestras relaciones con la IA? ¿Deberían los propios usuarios ser responsables de establecer los límites, o esta responsabilidad recae en los creadores de dicha tecnología? Sophie abogó por lo segundo y presentó un marco para las prácticas éticas de diseño en las interfaces conversacionales, un marco que mejore la interacción humana y, al mismo tiempo, salvaguarde la integridad y evite la explotación de las vulnerabilidades.
A medida que la IA impregna cada vez más diferentes aspectos de nuestra vida diaria, debates como estos son más relevantes que nunca. Esta sesión fue particularmente valiosa para diseñadores, desarrolladores y cualquier persona interesada en la IA y la interacción entre humanos y ordenadores, ya que ofreció ideas sobre cómo crear personalidades virtuales que realmente respeten y reflejen a las personas que interactúan con ellas. De ahora en adelante, debemos alentarnos unos a otros a evaluar críticamente las implicaciones éticas de desarrollar una IA humanoide e inteligente desde el punto de vista emocional, a fin de avanzar e innovar en la dirección correcta.
¿Quieres profundizar en el tema? ¡Conéctese con Sophie Kleber en LinkedIn!








