Hagamos bien con la IA lo que hicimos mal con las redes sociales

-

por ALEXANDRA SAMUEL

Interacciones que nos deshumanizan.

Desinformación que nos engaña.

Algoritmos que nos manipulan.

Estos son los riesgos que plantea la explosión de la inteligencia artificial generativa, IA que utiliza cantidades masivas de contenido preexistente (también conocido como «modelos de lenguaje grande») para generar texto, imágenes y código, así como para proporcionar información y respuestas a una gama cada vez mayor de preguntas.

También son los riesgos que hicieron que muchas personas se preocuparan por las redes sociales.

Lo que nos perdimos de las redes sociales

Ojalá me hubiera preocupado más por las redes sociales. En 2005, mi pareja y yo lanzamos lo que ahora se llamaría una agencia de redes sociales, en un momento en que pocos habían escuchado el término “redes sociales”. Al igual que muchas personas que trabajaban en la red social naciente en ese momento, estábamos mucho más en sintonía con su potencial que con sus riesgos.

Antes de la llegada de YouTube, Facebook y Twitter, las redes sociales estaban descentralizadas, no eran muy corporativas y eran bastante pequeñas: se sentían más como un club de personas que exploraban la forma en que el contenido creado por los usuarios podía impulsar el activismo, la comunidad y la creatividad más que la próxima fiebre del oro. Estaba tan segura de que este nuevo medio estaba intrínsecamente sesgado hacia el compromiso social que solía decirles a las empresas que les resultaría difícil competir con las causas y llamados de base que impulsaban la mayor parte de la participación online en ese momento.

Pero me olvidé de esta cosita llamada dinero. Resulta que si está preparado para llamar la atención con anuncios y portavoces de celebridades y una variedad interminable de concursos y premios, puede desviar la atención de la promoción social y la creatividad y dirigirla hacia la compra de cosas y reseñas de cosas e incluso desempaquetar cosas en cámara.

Dinero y medios

Una vez que las personas se dieron cuenta de que se podía ganar dinero con las redes sociales, y mucho, la dinámica cambió rápidamente. “Con los ingresos por publicidad digital como su principal fuente de ganancias”, escribe Douglas Guilbeault en “Digital Marketing in the Disinformation Age”, “las empresas de redes sociales diseñaron sus plataformas para influir en los usuarios en nombre de los especialistas en marketing y políticos, tanto extranjeros como nacionales.”

La publicidad se hizo más sofisticada, para recuperar la atención que la televisión y los periódicos estaban perdiendo ante las redes sociales y la navegación web. A su vez, “las plataformas digitales impulsadas por modelos de ingresos publicitarios se diseñaron para la adicción a fin de perpetuar el flujo de datos recopilados de los usuarios”, como dice L. M. Sacasas en “The Tech Backlash We Really Need”.

Más en AntropoUrbana:  Ahora hablemos en serio sobre los trabajos de mierda

Y el contenido se volvió más sensacionalista, más polarizante y más odioso, porque lo sensacionalista y polarizante es lo que atrajo el tráfico y la participación que buscaban los anunciantes; el resultado fue una explosión de discursos de odio. Como señala Bharath Ganesh en “The Ungovernability of Digital Hate Culture”, “en una nueva cultura mediática en la que los empresarios anónimos pueden llegar a audiencias masivas con poco control de calidad, las posibilidades de que aquellos que compiten por convertirse en celebridades digitales difundan contenido odioso e incluso violento, los juicios con poca evidencia, experiencia o conocimiento son casi interminables”.

La mayoría de los impactos terribles y destructivos de las redes sociales provienen de esta dinámica central. La velocidad del tamaño de un bocado de las redes sociales hizo que distraigan y perjudiquen infinitamente a nuestras familias, comunidades, relaciones y salud mental. Como medio sensacionalista, rico en datos y basado en anuncios, es ideal para la difusión de información errónea y la explosión de la manipulación antidemocrática. Y como un espacio donde los usuarios crean la mayor parte del contenido de forma gratuita, mientras que las empresas controlan las plataformas y los algoritmos que determinan lo que se ve, puso a los creadores a merced de los intereses corporativos e hizo que el arte esté al servicio de las ganancias.

Donde nos equivocamos

Ahora nos estamos preparando para hacerlo todo de nuevo, solo que más rápido y con implicaciones de mayor alcance. Como señalan Allen y Thadani en «Advancing Cooperative AI Governance at the 2023 G7 Summit», «la transición a un futuro de IA, si se gestiona mal, puede desplazar industrias enteras y aumentar la disparidad socioeconómica».

Estamos adoptando tecnologías que crean contenido de manera tan rápida y económica que, incluso si ese contenido aún no es tan bueno como el que podrían crear los humanos, será cada vez más difícil para los creadores humanos competir con las máquinas.

Estamos aceptando algoritmos opacos que brindan respuestas e «información» (entre comillas, porque las IA a menudo presentan «alucinaciones» totalmente inventadas como hechos) sin mucha transparencia sobre el origen de esta información o cómo la IA decidió construir sus respuestas.

Estamos eludiendo preguntas cruciales sobre el sesgo en la forma en que estas IA piensan y responden, y estamos eludiendo decisiones cruciales sobre cómo implementamos estas IA de manera que mitiguen en lugar de agravar las desigualdades existentes.

Cómo mejorar la IA

Si todo esto me hace sonar como una terrible pesimista, es solo porque tengo que luchar muy duro contra mi fascinación innata por la tecnología emergente. Me estoy enamorando de la magia y el poder de la IA, tal como me enamoré de las redes sociales y como me enamoré de mis primeras experiencias en la web, en Internet, en la computadora personal.

Más en AntropoUrbana:  Qué aporta la antropología al debate sobre el aborto

Aquellos de nosotros que estamos realmente inspirados y encantados con el advenimiento de las nuevas tecnologías somos los que más necesitamos controlar nuestro entusiasmo; anticiparnos a los riesgos y aprender de nuestros errores del pasado.

Y hay mucho de lo que podemos aprender, porque sabemos de qué nos advirtieron la última vez, qué ignoramos y cómo perdimos las oportunidades para evitar los peores excesos de las redes sociales.

Eso comienza con las empresas que impulsan esta transformación. En lugar de luchar contra la regulación, las empresas de IA podrían abogar por una regulación efectiva para que estén menos tentados a dejar de lado los problemas éticos y de seguridad para adelantarse a la competencia. Algunos líderes de IA ya están mostrando su apoyo a la regulación, como vimos cuando Sam Altman de OpenAI apareció en una audiencia reciente en el Senado.

Pero aún estaremos en una posición peligrosa si los reguladores dependen del asesoramiento técnico de los ejecutivos de IA para establecer las reglas apropiadas, porque incluso los ejecutivos bien intencionados serán menos que objetivos sobre las regulaciones que limitan su potencial de ganancias. La IA también es un área de movimiento mucho más complicada y mucho más rápida de regular; es poco probable que los legisladores que se vieron en apuros para comprender y regular las redes sociales lo hicieran mejor con la IA.

Es por eso que, como King y Shull argumentan en “How Can Policy Makers Predict the Unpredictable», «los formuladores de políticas deben priorizar el desarrollo de una red multidisciplinaria de expertos confiables a quienes llamar regularmente para identificar y discutir nuevos desarrollos en tecnologías de IA, muchos de los cuales pueden no ser intuitivos o aún imaginados”.

Se necesitará coordinación e inversión internacional para desarrollar una fuente independiente de asesoramiento regulatorio que sea genuinamente independiente y capaz de ofrecer un asesoramiento significativo: piense en un equivalente de IA de la Organización Mundial de la Salud, con la experiencia y los recursos para guiar la política y la respuesta de IA en un nivel mundial.

Convertirse en un usuario más inteligente de IA

Es igualmente crucial para la gente común mejorar su propia alfabetización y comprensión de la IA. Necesitamos estar alertas tanto a los riesgos como a las oportunidades que la IA plantea para nuestras propias vidas, y debemos ser ciudadanos informados y efectivos cuando se trata de presionar por la regulación gubernamental.

Aquí, nuevamente, el ejemplo de las redes sociales es instructivo. Las redes sociales hicieron inversiones masivas para comprender cómo capturar, mantener y monetizar nuestra atención. Solo cuestionamos este esfuerzo una vez que vimos el impacto que tuvo en nuestra salud mental, el bienestar de nuestros hijos y la integridad de nuestras democracias. Para entonces, estas redes estaban tan arraigadas en nuestra vida personal y profesional que salir de las redes sociales imponía costos sociales y profesionales muy reales.

Más en AntropoUrbana:  Los genios arcaicos que inventaron nuestra cultura

Esta vez, averigüemos cómo ser los agentes que usan las herramientas, en lugar de los sujetos que son manipulados. No llegaremos allí evitando ChatGPT, DALL-E y similares. La evasión solo nos hace más vulnerables a la manipulación por contenido generado artificialmente o al reemplazo por «trabajadores» de IA.

En cambio, nosotros, trabajadores humanos y usuarios de tecnología, debemos alfabetizarnos rápida y profundamente en las herramientas y tecnologías que están a punto de transformar nuestro trabajo, nuestra vida diaria y nuestras sociedades, para que podamos moldear ese camino de manera significativa. En una deliciosa paradoja, las propias IA pueden ayudarnos a lograr ese camino rápido hacia la alfabetización en IA al actuar como nuestras guías autodocumentadas de lo que es posible hacer.

Cómo la IA ayuda a desarrollar el dominio

Si aún tienen que profundizar en el potencial de la IA generativa, aquí hay un lugar donde pueden comenzar: soliciten a una IA algunos ejemplos de cómo puede transformar su propio trabajo.

Por ejemplo, puede solicitar ChatGPT con algo como: “Eres un consultor de productividad que fue contratado para respaldar la productividad y el bienestar de un equipo de analistas de políticas. Se te pidió que identifiques diez formas en que estos analistas de políticas pueden usar ChatGPT para facilitar o respaldar su trabajo, lo que incluye leer noticias y artículos académicos, asistir a conferencias, reservar sesiones informativas, redactar notas informativas y recomendaciones y escribir informes. Proporciona una lista de diez ideas sobre cómo usar ChatGPT para admitir estas funciones”.

Una vez que ChatGPT les proporcione una lista de opciones, elijan una que les gustaría probar. Luego pídanle a ChatGPT que les dé instrucciones paso a paso sobre cómo usarla para esa tarea en particular. Incluso pueden hacer un seguimiento de su solicitud de instrucciones paso a paso con un aviso como: “Eres un investigador de automatización. Revisa la conversación anterior y observa cinco riesgos o consideraciones al automatizar estas tareas o adoptar este enfoque”.

Ver cómo la IA generativa analiza y permite la automatización de su propio trabajo o tareas personales es una excelente manera de comprender cómo funciona la IA, dónde se encuentran sus límites y cómo podría transformar su propio rincón del mundo.

Esa comprensión es lo que permitirá usar la IA en lugar de acostumbrarse a ella, y es lo que permitirá participar de manera significativa en la conversación pública sobre cómo dar forma a la IA, ahora mismo. Y ahora es cuando necesitamos escuchar muchas voces humanas reflexivas e informadas que se comprometan con la cuestión de cómo regular y usar la IA.

De lo contrario, nuestras voces serán ahogadas por las voces cada vez más fuertes y omnipresentes de nuestros nuevos compañeros de IA.

Fuente: Jstor/ Traducción: Maggie Tarlo

Comparte este texto

Textos recientes

Categorías