También puedes escuchar esta columna:
Navegar en las redes sociales resulta en un acto azaroso, emocionante y culmina con siempre en encontrar lo que quieres, aunque aún no lo sepas. Los algoritmos nos conocen mejor que nosotros mismos y eso les permite identificar algo que no necesariamente nos gusta, pero sí que nos interesa.
Por esa misma razón, a mí me mandó entre los reels a un pequeño canguro confundido entre dos mujeres discutiendo. El pobre y tierno marsupial sostenía lo que parecía era un boleto de avión.
Poseído por la ternura, corrí y le llevé el teléfono a mi pareja para que ella también exclamara un “aaaahhhh”. Así pasó, pero ella notó algo más, me preguntó por qué hablaban tan raro esas mujeres, y yo sin una idea clara, pero aparentando tener todas las respuestas, repuse que así es el acento australiano.
Unos días después me enteré que el video era creación de una inteligencia artificial. En ese momento me quedó clarísimo: había suspendido mi incredulidad porque en redes sociales me he acostumbrado a que todo puede pasar.
Hace unos años hubiera sido imposible caer en una trampa como esa: los modelos de inteligencia artificial generativa no estaban tan desarrollados como hoy.
También lee:
La discapacidad o la sociedad discapacitada
Pasando la vergüenza por haber caído, pensé entonces en el peligro de ser víctima en una trampa mucho más nociva, como una extorsión con una réplica de voz o de rostro, que, si bien ya existían, no estaban suficientemente refinadas por estos modelos computacionales.
A una mujer, hace poco, la engañó un supuesto Brad Pitt que resultó ser algún estafador, o estafadora, utilizando estas herramientas digitales. Apenas hace unos días Diego Luna dijo que otros tantos delincuentes utilizaban su imagen para robar dinero.
Me preocupé. ¿Qué me asegura no ser la próxima víctima de un ladrón con una IA que suplante a algún familiar para quitarme unos cuantos billetes?… Luego me calmé. Una cosa es ver a un canguro tierno por puro entretenimiento y otra creer que una superestrella de Hollywood quiere acercarse a ti. Eso solo les pasa a las personas poco preparadas, a las que su pensamiento crítico les ha abandonado o de plano nunca estuvo presente. Solo basta con que me informe del asunto y ya está, no seré una de esas víctimas… ¿verdad?
En enero de este año Jianwei Xun, un filósofo chino, saltó a la fama gracias a un libro publicado en Amazon: Hipnocracia: Trump, Musk y la nueva arquitectura de la realidad. El libro llamó la atención de varios intelectuales, que pronto empezaron a utilizarlo como ejemplo. Fue citado en artículos y sus ideas sobre la manipulación en la que viven las actuales sociedades generaron reflexión de analistas y periodistas, lo normal pues. Quizá lo único que rompía la norma era el hecho de que Jianwei no existía, es decir, no existía como un humano convencional. Todo había sido obra de dos modelos de inteligencia artificial conversacional estimulados por Andrea Colamedici, quien firmaba como traductor del libro.
Te puede interesar:
Un loco sin Dios y además desbalagado
Así es, la gente preparada, las y los intelectuales también cayeron en la trampa, fueron obnubilados por un modelo computacional. Pero no podemos culparlos, ¿quién podría dudar de un filósofo y analista con un nombre tan contundente como Jianwei Xun, ni que dudáramos de Byung Chul-Han. Como si el creador, o quizá la IA, supiera que un nombre con esa potencia daba la impresión de todo un filósofo neoconfusiano.
Pareciera que en este mundo no hay alma que se salve de un pequeño terminator oculto a través del código binario… pero afortunadamente, aunque el peligro de ser engañado es constante, sí hay ciertos puntos que se podrían recordar para no caer de lleno en las trampas creadas con IA.
Recomendaciones
Luego de saber que el canguro era falso, todo pareció mucho más claro. Los detalles traicionaban a la computadora. Viéndolo con mayor detenimiento se advertía que el boleto de avión en realidad era un rectángulo en blanco. Las mujeres que discutían no decían ninguna palabra que se pueda reconocer en algún idioma actual, además de que los canguros de apoyo emocional no existen (sobre los wallabies no respondo).
Quizá la primera recomendación la podamos encontrar aquí, en los detalles.
Hace tiempo un video de un supuesto tsunami circuló por TikTok, era muy realista, pero después de verlo un par de veces más, todo empezaba a sentirse raro, el movimiento de las olas no era natural, todo se concentraba en ciertos puntos de la imagen, e incluso la gente que había sido alcanzada por las olas estaba completamente inerte, sin inmutarse por ver toneladas de agua cayendo sobre ellos.
Anteriormente, para evitar caer en fake news se recomendaba revisar en diversas fuentes confiables como medios de comunicación grandes. En el caso de las IA esto quizá no sea tan efectivo, pues siempre existe el riesgo, como ocurrió con Xun, de que los medios serios repliquen la información, no porque no la hayan comprobado, sino porque es la única disponible. Aun así, bastará con ver el perfil de quien subió el video originalmente y en varios casos nos toparemos con más de un cortometraje generado con IA, como en este caso donde me enteré de que al hipopótamo de apoyo emocional sí le habían permitido el paso al avión.
Te puede interesar:
Las IA generativas de imagen y video tienen algunos defectos a la fecha: las manos y los ojos –como los pintores y escultores, ¡así de bien nos imitan!-, ya sea porque existe tal complejidad anatómica que los modelos computacionales presentan problemas para hacerlo con precisión. O porque la información recopilada para la creación de esas imágenes se encuentre sesgada por las fuentes con las que se alimentó. Lo cierto es que resulta en un punto de partida para identificar la mano virtual que las creó.
En cuanto a los textos, los que sí son expertos, como Javier Lucas García, de la universidad de Sevilla, sugieren utilizar algunas herramientas antiplagio que se encargan de identificar patrones de escritura de las IA como Chat GPT y dar un porcentaje de probabilidad de ser creado no por un humano. Además de que los textos carecen de estilo preciso, se notan huecos (lo que también puede deberse a la información con la que se alimentaron), suelen ser repetitivos. Y si aún tienen dudas, siempre recuerden que en el contenido creado por una inteligencia artificial todo parece como un sueño de esos que se tienen con agruras.
Las IA están avanzando rápidamente y no se trata de crear una cacería contra los contenidos creados por estos motores, porque entre el canguro del aeropuerto y un millonario regalando viajes en las calles, el concepto de realidad es igual de cuestionable.
Espero te sirva este artículo; coméntame si puedo ayudarte con algo más…