por ANGELA JENKS, CHRISTOPHER LOWMAN y IAN STRAUGHN – Universidad de California en Irvine
¿Cómo te encontraste con la IA hoy? Quizás escuchaste música recomendada por un algoritmo de IA, utilizaste una aplicación de navegación para verificar las condiciones del tráfico predichas por IA, viste videos con subtítulos automáticos con reconocimiento de voz impulsado por IA o revisaste el correo electrónico sin siquiera darte cuenta de los mensajes de spam filtrados por IA.
La IA está dando forma a nuestra vida cotidiana, pero como docentes de antropología, la mayoría de nuestras conversaciones recientes relacionadas con la IA han tenido un enfoque singular: cómo lidiar con herramientas de IA generativa como ChatGPT en el aula. El lanzamiento de ChatGPT a finales de 2022 provocó pánico entre educadores que se dieron cuenta de que puede responder preguntas de tareas, analizar datos y generar ensayos completos en segundos (aunque es posible que sus hechos y citas no siempre sean confiables). Muchos profesores temían que la IA marcara el comienzo de una nueva era de trampas estudiantiles que sería más rápida, más barata y más difícil de detectar que nunca.
Este ensayo describe nuestro intento de superar el pánico y convertir nuestras preocupaciones en una oportunidad de aprendizaje. Participamos en un proyecto colaborativo con sede en la Facultad de Ciencias Sociales de la Universidad de California, Irvine (UCI), diseñado para explorar cómo las herramientas de inteligencia artificial podrían apoyar el aprendizaje universitario en antropología. A continuación, presentamos estudios de casos de tres cursos de antropología que utilizan tres conjuntos diferentes de herramientas de IA. Christopher Lowman creó un curso de escritura para la era de ChatGPT, presentando a los estudiantes de antropología los modelos de lenguaje grande (LLM) y su capacidad para impulsar temas de investigación y mejorar la escritura mientras enseña a los estudiantes a reconocer las limitaciones de la IA. Angela Jenks guió a estudiantes de antropología médica a través de un análisis de aplicaciones médicas de inteligencia artificial/aprendizaje automático (IA/ML) directas al consumidor como Symptomate y DermAssist, enseñándoles a analizar esta tecnología emergente mientras situaban estas aplicaciones en sus contextos históricos, sociales y contextos económicos. Ian Straughn trabajó con estudiantes en un curso de introducción a la arqueología utilizando Humata.ai para imaginar y desarrollar el diseño de investigación para la investigación arqueológica del campus de la UCI en algún momento en el futuro (tal vez una excavación realizada por inteligencia no humana).
Juntos, estos experimentos contribuyen a las conversaciones en curso sobre el valor pedagógico de las herramientas de IA, las competencias básicas necesarias para la alfabetización en IA y las pedagogías que preparan a los estudiantes (y profesores) para involucrar a la IA de manera efectiva, creativa y ética en el trabajo de la antropología.
Escribir con ChatGPT (Christopher Lowman)
En el otoño de 2023, impartí un curso de escritura antropológica titulado en broma “Escribir una guía de viaje para viajeros en el tiempo”. Los estudiantes siguieron un formato de guía de viaje para escribir sobre cómo vestirse, qué comer, dónde dormir y cómo interactuar con otros en el momento y destino de su elección. Quería entusiasmar a los estudiantes con la escritura, pero también animarlos a pensar en las prácticas cotidianas de las personas del pasado. Inspirándome en la serie de historia inglesa Time Traveller’s Guide de Ian Mortimer y el podcast de David Mountain The Backpacker’s Guide to Prehistory, también me basé en las críticas de Nanjala Nyabola a las perspectivas coloniales y de alteridad de las guías de viajes, que dieron forma a las discusiones en clase sobre ética, identidad y tono en la escritura. Los estudiantes leen literatura histórica, etnográfica y arqueológica relevante para destinos como la Mesopotamia de la Edad del Bronce, la Roma Imperial, el México de la década de 1890 y el Harlem de la década de 1920.
La escritura universitaria en 2023 significa tener en cuenta el uso de ChatGPT por parte de los estudiantes. Mi experiencia jugando con ChatGPT y leyendo sobre sus capacidades me llevó a abordarlo como una calculadora: una herramienta poderosa, pero útil sólo si los estudiantes entienden los principios detrás de sus entradas. Integré ChatGPT en clase mediante tres tipos de tareas. Primero, utilicé actividades analógicas o “a prueba de IA”. En segundo lugar, animé a jugar y experimentar con la IA junto con lecturas sobre las capacidades y limitaciones de ChatGPT. En tercer lugar, pedí a los estudiantes que grabaran y reflexionaran sobre su uso de ChatGPT.
Una actividad analógica consistía en escribir a mano todos los días en clase. Proporcioné a los quince estudiantes diarios en papel y bolígrafos para responder a las preguntas de discusión. Estas preguntas frecuentemente requerían que los estudiantes integraran ejemplos de clase o sus propias experiencias. Sería difícil replicar esos detalles para un programa como ChatGPT, y el ejercicio enseñó a los estudiantes sobre el valor de la reflexividad en la escritura y la investigación académica. Estas respuestas también me dieron una base para sus habilidades de composición sin la ayuda de programas de computadora. Además de actividades como observación y descripción detallada, pedí a los estudiantes que escribieran sobre sus experiencias previas con ChatGPT. La mayoría había oído hablar de ChatGPT, pero pocos lo habían usado con frecuencia. Más de la mitad dijo que los profesores habían prohibido su uso, equiparándolo con plagio. Ninguno se había encontrado con una clase en la que fuera un tema importante de discusión. En general, los estudiantes describieron ser cautelosos pero curiosos acerca de ChatGPT.
Les presenté ChatGPT a los estudiantes leyendo en voz alta los resultados de una de mis indicaciones: «Escribe una guía de viaje para un viajero en el tiempo que visitó Tenochtitlán, México en 1518”. El resultado proporcionó puntos de partida útiles para formular preguntas de investigación, pero el texto generado contenía pocos detalles sustanciales, ninguna cita y un lenguaje obsequioso que Nyabola criticaría (“Bienvenido, estimado viajero del tiempo…”). Sugerí a los estudiantes que comenzaran a jugar con ChatGPT y les proporcioné una serie de artículos sobre cómo funcionan los LLM, incluido cómo pedirles que generen comparaciones o listas y cómo citar herramientas de inteligencia artificial. Los estudiantes encontraron especialmente útil Write What Matters (2020), un libro de texto modular de acceso abierto editado por Joel Gladd, Liza Long y Amy Minervini. Aún así, algunos estudiantes tuvieron dificultades para diferenciar entre los resultados de ChatGPT y las fuentes confiables de información, lo que llevó a discusiones sobre la confiabilidad, las fuentes primarias y la revisión por pares.
Al final, los estudiantes escribieron reflexiones sobre su uso de ChatGPT, incluyendo aspectos tanto creativos como prácticos. La mayoría utilizó ChatGPT para trabajar su escritura encontrando y corrigiendo errores gramaticales comunes o identificando palabrería o repetición. Un estudiante usó ChatGPT para encontrar patrones y conexiones temáticas entre abundantes notas, mientras que otro lo usó para superar el bloqueo del escritor. Un estudiante pidió a ChatGPT que creara un personaje histórico imaginado para habitar el destino elegido (California en la era de la fiebre del oro). Proporcionó información histórica a ChatGPT y luego le pidió una descripción en la voz de este personaje, brindándose a sí mismo un guía turístico imaginado utilizando las mismas habilidades de los LLM que ahora se usan para crear personajes de rol y personajes no jugables en videojuegos.
ChatGPT proporcionó, según una de sus propias respuestas generadas, «una ventaja futurista para las exploraciones históricas de los estudiantes». Sin embargo, más allá de la novedad de su uso, los estudiantes abandonaron la clase con una alfabetización en el uso de LLM para escritura que no habían recibido en ningún otro lugar y que a menudo se les había disuadido de explorar antes. Según otra autodescripción generada por ChatGPT, el uso de LLM es una parte importante del «discurso académico en la era digital». Cuando los estudiantes son conscientes de las capacidades y limitaciones de la IA, tanto su escritura como su investigación mejoran.
Diagnóstico con IA (Angela Jenks)
En el invierno de 2024, los estudiantes de mi curso de Culturas de Biomedicina de la división superior observaron de cerca las aplicaciones de diagnóstico de inteligencia artificial/aprendizaje automático (DTC AI/ML) directas al consumidor. Estas herramientas prometen democratizar la información sanitaria, empoderar a los pacientes y reducir la carga financiera de los hospitales al ofrecer a los consumidores evaluaciones inmediatas de los síntomas y posibles opciones de tratamiento. Juntos, los estudiantes y yo ingresamos síntomas hipotéticos en varios programas y comparamos los resultados. Los estudiantes se preguntaron: ¿Por qué algunas aplicaciones solicitan mucha más información que otras? ¿Cuánto podríamos confiar en estas respuestas cuando los diagnósticos potenciales iban desde afecciones menores hasta emergencias que amenazan la vida? ¿Qué sucede si cambia solo un dato como la edad, la ubicación o el sexo? (¡Resulta que mucho!)
Esta discusión sobre las aplicaciones médicas de IA se produjo al final del semestre, durante un módulo centrado en la «vida social de la biotecnología». En los meses anteriores ya habíamos hablado de la biomedicina como práctica sociocultural. Exploramos los principios básicos de la bioética, examinamos las políticas del diagnóstico médico y consideramos múltiples ejemplos de sesgo algorítmico, en particular la corrección racial en los algoritmos clínicos. A medida que centramos nuestra atención en las aplicaciones de diagnóstico, mi objetivo principal se centró menos en ayudar a los estudiantes a aprender a usar la tecnología de manera efectiva y más en apoyar su comprensión de cómo se sitúa la tecnología en el mundo social.
Para ello, la actividad de clase tuvo tres componentes principales. Comencé con una breve conferencia que brinda algunos antecedentes sobre la IA y el aprendizaje automático, en qué se diferencia la IA de la informática tradicional y la variedad de formas en que se está incorporando a la biomedicina. Por ejemplo, la IA se utiliza cada vez más para la clasificación y la estratificación de riesgos, el análisis de imágenes médicas (por ejemplo, mamografías, endoscopias, imágenes de la piel, diapositivas de patología, imágenes de tomografía computarizada y resonancia magnética, etc.), el desarrollo de planes de tratamiento personalizados y la terapia con chatbot o la interpretación del lenguaje. Esta formación tenía como objetivo abordar una competencia central de la alfabetización en IA: la capacidad de reconocer la IA, comprender los diferentes tipos que existen y apreciar el papel que desempeñan los humanos en la programación y el entrenamiento de sistemas de IA.
A continuación, los estudiantes examinaron las aplicaciones ellos mismos. Trabajando en grupos pequeños, eligieron uno de los cinco verificadores de síntomas (WebMD, Ada Health, MediFind, Symptomate o DermAssist) y, en una actividad influenciada por la investigación de Lupton y Jutel, examinaron el lado de la tecnología orientado al consumidor. Los estudiantes describieron y analizaron las imágenes (logotipos, obras de arte, fotografías) asociadas con cada aplicación, junto con las estrategias utilizadas para demostrar credibilidad a los usuarios o para reclamar autoridad o experiencia médica. Notaron la presencia o ausencia de exenciones de responsabilidad o limitaciones declaradas y exploraron la «letra pequeña» de cada programa para ver si podían determinar cómo funciona la tecnología, de dónde proviene la información/investigación utilizada en la aplicación y las políticas de privacidad o seguridad relacionadas con los datos de los usuarios.
En la etapa final del proyecto, los estudiantes ubicaron las herramientas de IA médica en un contexto social y económico más amplio. Basándose en la actividad “Escribiendo la implosión” de Joe Dumit, reflexionaron sobre lo que saben sobre la historia, la producción, los impactos y los significados de esta tecnología. Nuestras conversaciones se centraron especialmente en las dinámicas de poder que intervienen en el desarrollo y uso de herramientas de IA/ML y en el racismo de larga data en la investigación y la práctica biomédicas (DermAssist, por ejemplo, es una aplicación de dermatología impulsada por inteligencia artificial diseñada para identificar afecciones de la piel en fotografías de consumidores; el 90% de las imágenes en su conjunto de capacitación inicial eran de personas de piel clara). Abordamos además cuestiones éticas fundamentales relacionadas con la confiabilidad, privacidad, transparencia y discutimos las grandes demandas de energía y los impactos ambientales de las tecnologías de IA. En última instancia, la actividad nos dejó a todos más preguntas sobre los usos apropiados y éticos de la IA que respuestas claras.
Al final del trimestre, pedí a los estudiantes que reflexionaran sobre su aprendizaje a lo largo del curso. Varios estudiantes mencionaron el estudio de caso de IA/ML como el tema más inesperado y memorable que habían aprendido. Describieron estar «conmocionados» por el alcance de la IA en la medicina y haber desarrollado un «interés más profundo» en explorarla más a fondo. La mayoría son estudiantes de pre-medicina que planean seguir carreras clínicas, y lo que aprendieron demuestra cómo los cursos de ciencias sociales pueden desempeñar un papel clave en la expansión de la alfabetización pública en IA.
Humata.ai y la realidad de la arqueología (Ian Straughn)
En el invierno de 2024, experimenté integrando Humata.ai en un curso de arqueología de división inferior sobre pseudociencia, teorías de conspiración y formas de popularizar el pasado antiguo que se deleitan en rechazar las explicaciones arqueológicas “convencionales”. De alguna manera parecía apropiado incluir la IA generativa en nuestras exploraciones de la producción de conocimiento, la desinformación y el uso de datos arqueológicos en explicaciones sobre el pasado humano. Esta herramienta en particular permite a los usuarios cargar sus propios documentos (lecturas de cursos, artículos de investigación, archivos, etc.) para que puedan consultarse individualmente o como bibliotecas más grandes, utilizando una interfaz de chatbot. Humata se promociona a sí misma como una herramienta que permite “charlar a través de documentos extensos” porque “preguntar es más rápido que hojear”. Con ChatGPT-4 como LLM bajo el capó, Humata implementa su estrategia de lectura patentada en respuesta a la naturaleza de las indicaciones que proporciona el usuario. Como declara otro discurso de la herramienta: “Tu equipo no puede leerlo todo. Pero Humata sí puede”. En cuestión de segundos, puede resumir todo un cuerpo de literatura, comparar argumentos en competencia o incluso sugerir al usuario cuáles podrían ser preguntas relevantes para formular. Puede verse el atractivo potencial para estudiantes, investigadores y cualquier persona deseosa de sintetizar y consultar un gran volumen de materiales textuales. ¿Pero podemos confiar en lo que tiene que decir?
Inicialmente, tenía la intención de conservar una gran base de datos de documentos (del orden de 100.000 páginas) dentro de Humata sobre la historia y el desarrollo del campus de UC Irvine como un sitio arqueológico en ciernes, uno que podríamos «excavar» con esta herramienta de IA generativa. El plan era incluir documentos de archivo de los primeros días de planificación y construcción de la universidad, informes de impacto ambiental para proyectos de desarrollo del campus, estudios de recursos culturales, material efímero, políticas universitarias y otros materiales que pudieran contextualizar el registro arqueológico emergente de la institución. Construir un repositorio así era demasiado ambicioso. En última instancia, se redujo a algo así como 10.000 páginas de dichos documentos que de ninguna manera eran exhaustivos pero sí representativos de los tipos de materiales disponibles. Un artículo futuro discutirá el proyecto de excavación y cómo utilizamos Humata para imaginar una investigación arqueológica del campus en algún momento futuro. También creé una segunda base de datos que incluía todas las lecturas del curso (obligatorias y opcionales) como un conjunto adicional de materiales para experimentar con el uso de Humata.
Para que los estudiantes se familiarizaran con la interfaz y el funcionamiento de Humata, se les pidió que subieran un artículo académico que ya conocieran bien, que podía ser de cualquier disciplina. Una vez que aparece en la interfaz, hacen clic en el botón «preguntar» y Humata proporciona un resumen del texto y tres posibles preguntas que el usuario podría considerar para investigar más profundamente. Como se trataba de un artículo con el que ya estaban familiarizados, los estudiantes evaluaron tanto la precisión del resumen como la relevancia de las preguntas en una escala de 1 a 5, con calificaciones promedio de 4,2 y 4,1, respectivamente. Luego hicieron tres preguntas propias sobre el artículo y comentaron sobre la calidad de las respuestas. Si bien la mayoría informó que no necesariamente aprendieron nada nuevo, ya que ya estaban bastante familiarizados con el contenido, no hubo informes de desinformación o respuestas engañosas. Algunos notaron que esto todavía era útil como una forma rápida de refrescarse sobre el contenido y los argumentos de ese artículo original, especialmente porque citaría pasajes específicos del texto para respaldar sus respuestas.
En otra tarea, se pidió a los estudiantes que pasaran una hora conversando con Humata sobre los documentos en la base de datos de lecturas del curso, intentando convencer a la IA de que la arqueología no es real. Tuvieron poco éxito, incluso cuando utilizaron algunos de los trucos que pueden causar problemas a ChatGPT. Si bien Humata estaba dispuesto a admitir que la arqueología podía estar sesgada y que sus hallazgos podían ser erróneos, mal utilizados y abusados, mantuvo firmemente que la disciplina era real. Humata señaló que existían “arqueologías alternativas”, pero que las distinguiría como compromisos con el registro arqueológico que carecían de rigor científico y evidencia empírica. No necesariamente invalidaba tales enfoques, sólo afirmaba que operaban fuera del consenso de los expertos académicos. Si bien algunos estudiantes se sintieron decepcionados porque se negó a creer sus mentiras o seguir sus órdenes, la mayoría encontró tranquilizador que la herramienta se remitiera a aquellos materiales que consideraba académicos y metodológicamente sólidos. En última instancia, cuando encuesté a los estudiantes al final del curso, el 61% informó que le gustaría que más cursos experimentaran con herramientas de inteligencia artificial, el 29% estaba indeciso y solo el 10% se mostraba reacio a integrarlo en la pedagogía del aula.
Conclusión
Independientemente de que los profesores se sientan preparados o no para experimentar con la IA en el aula, nosotros y nuestros estudiantes ya vivimos y trabajamos con estas tecnologías. A pesar de los temores de que la IA generativa pueda perjudicar el aprendizaje, los experimentos pedagógicos aquí descritos nos han animado a ser cautelosamente receptivos a las formas en que también podría enriquecer el aprendizaje. Como hemos aprendido durante el último año, las herramientas de inteligencia artificial tienen el potencial de mejorar nuestra enseñanza de habilidades antropológicas fundamentales como la escritura creativa, la lectura académica y el análisis social. Christopher Lowman demostró cómo ChatGPT se puede utilizar como ayuda para la escritura y como punto de entrada para enseñar a los estudiantes las habilidades de ingeniería rápida. Angela Jenks reforzó la conciencia de los estudiantes sobre cómo la IA los rodea todos los días y facilitó el examen crítico de los usos médicos de la IA por parte de los estudiantes de medicina. La demostración de Ian Straughn de la capacidad de Humata.ai para procesar cantidades masivas de datos textuales llamó la atención de los estudiantes no solo sobre las posibilidades de la IA en la investigación, sino también sobre la historia local e institucional. Cada uno de estos estudios de caso destaca la forma en que la IA no reemplaza la enseñanza y el aprendizaje, sino más bien una herramienta que puede integrarse en la pedagogía existente.
Al mismo tiempo, reconocemos preocupaciones importantes y reales sobre estas herramientas, incluida su naturaleza de caja negra, algoritmos que probablemente reproducen inequidades y sesgos existentes y la opacidad de las prácticas de privacidad de datos. Sostenemos que abordar estas preocupaciones implica aprender qué puede hacer la IA, en lugar de prohibir su uso. Con ese fin, en cada uno de nuestros experimentos, los estudiantes aprendieron no solo cómo usar la IA sino también por qué funciona y cuáles siguen siendo algunas de sus limitaciones. Las tecnologías de IA se convirtieron en temas de investigación crítica, particularmente cuando los estudiantes exploraron la confiabilidad y las implicaciones metodológicas, sociales y éticas del contenido generado por IA. Este proceso llevó a los estudiantes a reflexionar sobre su papel en la producción de conocimiento mientras navegaban por las líneas cada vez más borrosas entre sus propias contribuciones intelectuales y la facilidad con la que dichas herramientas crean contenido. Sostenemos que parte del éxito de estos experimentos proviene precisamente de esta ansiedad productiva sobre la relación humano-tecnología que experimentaron. Por esta razón, era importante que los estudiantes encontraran estas herramientas en un ambiente de aula controlado que les pareciera seguro. Un enfoque antropológico de la alfabetización en IA es crucial para avanzar, y estos experimentos en el aula ilustran posibilidades pedagógicas para ayudar a los estudiantes a desarrollar una comprensión matizada de las herramientas de IA.
Fuente: AAA/ Traducción: Alina Klingsmen