El Marco AIAS: Una Herramienta Estratégica para la Evaluación en la Era de la Inteligencia Artificial Generativa
Como profesionales dedicados a la dirección académica, a la docencia, el aprendizaje corporativo y el desarrollo del talento, muchos de nosotros nos enfrentamos a la integración acelerada de tecnologías generativas en nuestros entornos. ¿Recuerdan esa sensación al revisar un trabajo o proyecto que parecía “demasiado” pulido, casi... artificial? O las intensas discusiones en nuestros equipos sobre dónde trazar la línea con las nuevas herramientas que escriben, codifican o diseñan. La llegada de las tecnologías generativas está redibujando las fronteras del aprendizaje, la evaluación y la propia integridad académica. Navegar estas aguas turbulentas sin un mapa claro puede resultar agotador y, francamente, contraproducente. Pero, ¿y si tuviéramos una brújula, un marco práctico para orientar nuestras decisiones y las de nuestros equipos?
Este artículo presenta el Marco de Evaluación de Inteligencia Artificial (AIAS - Artificial Intelligence Assessment Scale), una propuesta metodológica que busca facilitar la toma de decisiones informadas sobre el nivel apropiado de uso de tecnologías generativas en la evaluación, alineado con los resultados de aprendizaje específicos y las demandas del contexto profesional actual.
El AIAS no es solo una herramienta para la evaluación, sino un marco estratégico que busca empoderar a los educadores para seleccionar el nivel apropiado de uso de GenAI en las evaluaciones basándose en los resultados de aprendizaje que desean abordar. Al ofrecer mayor claridad y transparencia tanto para estudiantes como para educadores, el AIAS funciona como una herramienta política justa y equitativa para las instituciones, adoptando un enfoque matizado que abraza las oportunidades de la GenAI al tiempo que reconoce las situaciones en las que estas herramientas pueden no ser pedagógicamente adecuadas o necesarias.
Su enfoque práctico y flexible, que permite una implementación rápida, lo posiciona como un punto de partida necesario para abordar la incertidumbre y la ansiedad actuales en torno a la GenAI en la educación. El AIAS aboga por un discurso renovado sobre las herramientas de GenAI en educación, uno que destaque cómo estas tecnologías pueden apoyar y mejorar la enseñanza y el aprendizaje, en contraste con el enfoque predominante en la GenAI como facilitadora de la mala conducta académica.
El AIAS fue descrito en detalle por Perkins, Furze et al. (2024) y una versión revisitada fue publicada en diciembre de 2024 por Perkins, Roe, & Furze (ver Referencias Bibliográficas, más abajo).
Tabla de Contenidos
Contexto Actual: Oportunidades y Desafíos de las Tecnologías Generativas
El Marco AIAS: Estructura y Niveles de Aplicación
Implementación Práctica: Perspectivas del Caso BUV
Aplicaciones prácticas del Marco AIAS
Integridad Académica y Profesional: Más Allá de la Detección
Dimensiones Éticas en la Integración Tecnológica
Evolución y Adaptabilidad del Marco
Conclusión: Hacia una Integración Estratégica
Expertos Clave
Referencias Bibliográficas
1. Contexto Actual: Oportunidades y Desafíos de las Tecnologías Generativas
La irrupción de herramientas con capacidades generativas avanzadas ha generado un intenso debate en los ámbitos educativo y corporativo. Las respuestas institucionales iniciales, que oscilaron entre la inacción y la prohibición, a menudo se centraron en los riesgos para la integridad académica, descuidando potencialmente las aplicaciones pedagógicas y profesionales beneficiosas. Estas tecnologías ofrecen posibilidades para apoyar la comprensión de conceptos complejos, generar materiales didácticos adaptados, o asistir en tareas de planificación y diseño. Sin embargo, estas oportunidades coexisten con desafíos significativos relacionados con la autoría, la equidad, el sesgo algorítmico, la privacidad de los datos y el desarrollo de habilidades fundamentales.
Como directores y responsables en nuestras respectivas áreas, nos enfrentamos a la necesidad de desarrollar estrategias que permitan aprovechar el potencial de estas herramientas mientras se mitigan los riesgos. Un enfoque basado exclusivamente en la detección de usos indebidos resulta insuficiente, dada la limitada fiabilidad y los posibles sesgos de las herramientas de detección existentes, y no aborda la necesidad fundamental de preparar a estudiantes y profesionales para interactuar crítica y éticamente con estas tecnologías.
2. El Marco AIAS: Estructura y Niveles de Aplicación
El Marco de Evaluación de Inteligencia Artificial (AIAS) emerge como una respuesta estructurada a estos desafíos. Propuesto por Perkins, Roe, Furze y colaboradores, el AIAS ofrece un sistema de cinco niveles diseñado para guiar a educadores y profesionales de L&D en la selección del grado apropiado de uso de tecnologías generativas para tareas de evaluación específicas. Su diseño busca ser claro, flexible y adaptable a diversas disciplinas y contextos.
Estos son los cinco niveles del Marco AIAS:
Nivel 1 – Sin IA (No AI): Los estudiantes completan las evaluaciones sin usar ninguna herramienta de GenAI. Esto puede consistir, por razones prácticas, en una tarea práctica sin dispositivos electrónicos, o por razones de seguridad de la evaluación, en exámenes supervisados y sin tecnología. Las tareas en este nivel pueden incluir discusiones, debates o actividades grupales libres de tecnología, donde el uso de herramientas de GenAI no sería beneficioso para el aprendizaje de los estudiantes o enmascararía si se están cumpliendo los objetivos de aprendizaje. Este nivel se restringe, muy frecuentemente, a exámenes, evaluaciones establecidas por organismos profesionales o actividades que requieren demostraciones de competencia en vivo.
Nivel 2 – Generación y Estructuración de Ideas con Asistencia de IA (AI-assisted idea generation and structuring): La IA se utiliza para hacer brainstorming y trabajar con ideas o notas; sin embargo, la entrega final debe estar libre de cualquier contenido generado por GenAI. La tarea puede permitir, por ejemplo, el uso de reconocimiento automático de voz asistido por IA para transcribir notas, el uso de GenAI para convertir notas en esquemas o para contribuir a brainstorming o sugerencias de mejora en trabajo ya creado. Las tecnologías de generación de imágenes podrían usarse para generar puntos de partida para diseños en asignaturas de arte o diseño, o herramientas utilizadas para explorar posibilidades para producir software en asignaturas de informática, pero no se puede incluir contenido creado por GenAI en las entregas finales. Este nivel requiere aprobación de los líderes de la disciplina.
Nivel 3 – Edición con Asistencia de IA (AI-assisted editing): La IA puede usarse para editar el trabajo generado por el estudiante; sin embargo, el trabajo original debe proporcionarse para su comparación. Este nivel permite el uso de herramientas que pueden apoyar la reescritura y edición para clarificar ideas creadas por los estudiantes, el uso de GenAI con fines editoriales o la edición de texto capturado con reconocimiento automático de voz (por ejemplo, borradores grabados verbalmente). En un contexto multimodal, se podrían permitir herramientas de edición asistida por IA junto con documentación del proceso. El Nivel 3 se ha convertido en el nuevo estándar base para evaluaciones para llevar a casa en algunas implementaciones, ya que reduce los desafíos iniciales para la facultad al no requerir un rediseño completo de las evaluaciones en esta etapa. El Nivel 3 de la AIAS puede ser una de las formas de implementación de IA con mayor potencial para andamiar la generación de ideas y la producción de textos.
Nivel 4 – Finalización de Tarea con IA, Evaluación Humana (AI task completion, human evaluation): La IA se utiliza para completar elementos importantes de la tarea, con los estudiantes criticando y reflexionando sobre el contenido generado por IA. En este nivel, los estudiantes podrían crear porciones significativas del resultado con IA y luego reflexionar sobre la calidad, veracidad, sesgo o calidad general de los datos generados por IA. Por ejemplo, la IA puede usarse para crear conjuntos de datos simulados en ciencias, respuestas escritas completas a literatura o código completo. El elemento central de este nivel es que se requiere que los estudiantes reflexionen y evalúen estas salidas creadas por GenAI, y no solo las usen para completar una tarea establecida. Las evaluaciones en este nivel son particularmente útiles para abordar habilidades de pensamiento de orden superior, donde se pide a los estudiantes que demuestren habilidades de evaluación y creación. También podría implementarse un enfoque de "Finalización de Tarea con IA y Evaluación Humana", para desarrollar propuestas de investigación.
El proceso puede comenzar con una introducción a las directrices de la UNESCO y COPE sobre el uso ético de GenAI en investigación. Los estudiantes podrían luego usar herramientas de IA para generar ideas iniciales y crear esquemas para sus propuestas de investigación. Un componente crítico de esta tarea de Nivel 4 podría ser la evaluación del contenido generado por IA.
Nivel 5 – IA Completa (Full AI): La IA se utiliza a lo largo de la evaluación sin necesidad de especificar qué contenido es generado por IA. En este nivel, el uso de cualquier tecnología multimodal de GenAI está permitido para la finalización de la tarea o se requiere para obtener una puntuación alta, por ejemplo, requiriendo a los estudiantes que usen avatares de IA en la producción de contenido de video o que escriban respuestas usando herramientas de edición de texto de GenAI junto con su trabajo escrito. Este nivel es particularmente adecuado cuando uno de los objetivos de aprendizaje está relacionado con el uso de GenAI, pero puede integrarse en cualquier evaluación reconociendo que se esperará que los estudiantes utilicen estas herramientas junto con su propio trabajo en futuros entornos laborales. El Nivel 5 facilita un mayor énfasis en el nivel de "Crear" de la versión revisada de la taxonomía de Bloom al alentar a los estudiantes a incorporar contribuciones multimodales en su trabajo. En este nivel, la IA debe usarse como un "copiloto" para cumplir los requisitos de la evaluación, permitiendo un enfoque colaborativo con la IA y mejorando la creatividad.
3. Implementación Práctica: Perspectivas del Caso BUV
La implementación piloto del AIAS en British University Vietnam (BUV), una institución privada con aproximadamente 2500 estudiantes que sigue un currículo de Educación Superior basado en el Reino Unido con acreditación internacional, proporciona perspectivas valiosas sobre la aplicación del marco. La mayoría de los estudiantes de BUV son aprendices de ESL (English as a Second Language) lo que añade una capa importante al contexto.
La reacción de BUV a las herramientas de GenAI se caracterizó por un aumento gradual en el conocimiento institucional de esta tecnología disruptiva. Inicialmente, la tecnología pasó desapercibida, sin consideraciones de ajuste de políticas.
Posteriormente, hubo un aumento notable en la entrega de trabajos con un nivel de inglés escrito superior al que cabría esperar razonablemente de algunos estudiantes. Esto impulsó la adaptación de una escala de evaluación de IA inicial al formato actual del AIAS, diseñado para apoyar a educadores y estudiantes de BUV en el desarrollo de tareas de evaluación y en la discusión del uso apropiado de GenAI.
Los objetivos de la implementación del AIAS en la BUV fueron:
Ayudar a los educadores a considerar cómo debían ajustarse sus evaluaciones considerando las herramientas de GenAI
Clarificar a los estudiantes cómo y dónde podían usar las herramientas de GenAI en su trabajo,
Apoyar a los estudiantes para que completaran las evaluaciones en línea con los principios de integridad académica, reduciendo así el número de violaciones de conducta académica dentro de la BUV.
Hubo un debate significativo sobre la granularidad necesaria del marco. Algunos defendieron un enfoque altamente granular, enfatizando los muchos posibles casos de uso de las herramientas de GenAI. Una perspectiva alternativa fue que cualquier marco debe ser lo suficientemente flexible y simple como para alentar a los estudiantes a adaptarse y cumplir. Dada la prevalencia de estudiantes de ESL en BUV, la simplicidad fue un factor adicional importante a considerar. El resultado de las discusiones fue una ligera variación del AIAS presentado, con cinco niveles claros.
El marco fue diseñado en agosto de 2023 y aprobado en septiembre de 2023 por los comités relevantes, acompañado de documentación de política centrada en el estudiante y guías que explicaban el uso aceptable de GenAI en las evaluaciones. Esta política se centró en tres áreas principales: ética y transparencia, seguridad y privacidad, y limitaciones y sesgos. Todo el material de capacitación relacionado con el AIAS se enmarcó dentro de estos principios.
La política, el material de capacitación y el AIAS se diseñaron e implementaron en octubre de 2023 para el inicio del nuevo año académico, acompañados de una extensa campaña interna para educar a los estudiantes sobre los cambios en la evaluación e informar al personal académico sobre cómo aplicar la nueva escala y estrategia a sus evaluaciones.
La adopción del AIAS llevó a cambios significativos en el diseño y la instrucción de la evaluación en BUV. Se requirió a la facultad que restringiera el uso del Nivel 1 a exámenes, evaluaciones establecidas por organismos profesionales o actividades que requirieran demostraciones de competencia en vivo. El Nivel 2 se restringió principalmente a programas de idioma inglés o requirió aprobación de los líderes de disciplina14 . El Nivel 3 se convirtió en el nuevo estándar base para evaluaciones para llevar a casa, ya que este nivel redujo los desafíos iniciales para la facultad al no requerir un rediseño completo de las evaluaciones en esta etapa. Reconociendo la potencial futura integración de la GenAI, se alentó a la facultad a considerar establecer evaluaciones en los Niveles 4 y 5 para maximizar las oportunidades de aprendizaje para los estudiantes, al tiempo que se reducían los riesgos inherentes del uso indebido de herramientas de GenAI en los niveles inferiores14 .
Establecer evaluaciones en estos niveles superiores fue una tarea más desafiante, ya que requirió un rediseño más profundo de las estrategias de evaluación, manteniendo al mismo tiempo la alineación con los resultados de aprendizaje existentes a nivel de módulo y programa. Las evaluaciones en estos niveles son particularmente útiles para abordar habilidades de aprendizaje de orden superior donde se pide a los estudiantes que demuestren habilidades de evaluación y creación,
El AIAS sirve como una herramienta valiosa para que la facultad alinee las evaluaciones con los resultados de aprendizaje del programa y del curso, al tiempo que las contextualiza dentro de la nueva realidad de las capacidades de la GenAI. Como los objetivos de aprendizaje no siempre evolucionan tan rápido como las herramientas mismas, el AIAS proporciona un marco flexible para ajustar las evaluaciones de manera que permita que los resultados de aprendizaje se cumplan de manera más apropiada.
En resumen, la experiencia de BUV destaca varios aspectos clave:
Necesidad Institucional: La observación de trabajos estudiantiles con una calidad lingüística inesperada impulsó la búsqueda de un marco estructurado.
Simplicidad y Flexibilidad: Durante el diseño, se optó por un marco claro y de fácil adopción (los cinco niveles), considerando la diversidad del alumnado.
Desarrollo de Políticas: La implementación se acompañó de políticas institucionales centradas en el estudiante, abordando ética, seguridad y limitaciones de las herramientas.
Capacitación y Comunicación: Fue esencial una campaña interna para formar a académicos y estudiantes sobre el uso del marco.
Ajuste Gradual de Evaluaciones: Se estableció el Nivel 3 como base para evaluaciones externas, minimizando la disrupción inicial, mientras se incentivaba la exploración de los Niveles 4 y 5 para fomentar habilidades superiores y preparar para el futuro profesional.
El caso BUV ilustra cómo el AIAS puede servir como herramienta para la adaptación estratégica de las prácticas de evaluación, aunque subraya que la implementación, especialmente en los niveles superiores, requiere un rediseño pedagógico significativo.
4. Aplicaciones Prácticas del Marco AIAS
El Marco AIAS ofrece múltiples aplicaciones prácticas para educadores, diseñadores de currículos, profesionales de L&D e instituciones:
Diseño de Evaluaciones Claras y Transparentes: Utilice los cinco niveles del AIAS para definir explícitamente el grado permitido de uso de GenAI para cada tarea de evaluación. Esto reduce la ambigüedad y comunica claramente las expectativas a los estudiantes.
Desarrollo de Políticas Institucionales: Adapte el marco AIAS para informar y estructurar las políticas de uso de GenAI a nivel departamental o institucional. Considere los principios de ética, transparencia, seguridad, privacidad, limitaciones y sesgos al elaborar estas políticas.
Fomento de la Alfabetización en IA: Integre discusiones sobre los niveles del AIAS y las implicaciones éticas del uso de GenAI en las aulas o en los programas de L&D. Esto ayuda a los estudiantes y empleados a comprender cuándo, cómo y por qué usar (o no usar) la IA de manera responsable.
Adaptación de Evaluaciones Existentes: Analice las evaluaciones actuales a través de la lente del AIAS para determinar qué nivel de uso de IA es apropiado y si es necesario rediseñarlas. Por ejemplo, muchas tareas para llevar a casa pueden ajustarse al Nivel 3 como estándar base.
Promoción de Habilidades de Orden Superior: Diseñe evaluaciones en los Niveles 4 y 5 para desafiar a los estudiantes a usar la IA de manera crítica, evaluando sus resultados (Nivel 4) o integrándola creativamente como una herramienta colaborativa (Nivel 5). Esto alinea la evaluación con el desarrollo de juicio evaluativo y habilidades de creación.
Guía para el Uso Apropiado de Herramientas: Utilice los niveles del AIAS para guiar a los estudiantes o empleados sobre cómo pueden usar herramientas específicas de IA (como chatbots para brainstorming en Nivel 2, herramientas de edición en Nivel 3, o modelos multimodales en Nivel 5).
Apoyo en Contextos de Idioma Extranjero: Adapte los Niveles 2, 3 y 4 de la AIAS para andamiar tareas en la enseñanza de idiomas (EFL/EAP), como la generación de ideas, la estructuración de textos o la edición, aprovechando el potencial de la IA para apoyar el desarrollo de habilidades lingüísticas.
Evaluación Continua y Adaptación: Reconozca que el panorama de la IA está en constante evolución. Utilice el AIAS como un marco vivo que debe revisarse y adaptarse periódicamente en función de los avances tecnológicos y las experiencias de implementación, tal como se hizo en el caso de la BUV.
Al adoptar el Marco AIAS, podemos pasar de un enfoque reactivo y temeroso hacia la IA a uno proactivo y estratégico, integrando esta poderosa tecnología de manera que potencie el aprendizaje, la evaluación y el desarrollo de las personas de cara al futuro.
5. Integridad Académica y Profesional: Más Allá de la Detección
Uno de los cambios más importantes que facilita el AIAS es mover la conversación más allá de la "carrera armamentista" entre herramientas generativas y software de detección. Como se ha comprobado, la fiabilidad de estos detectores es cuestionable, son susceptibles a sesgos (especialmente contra hablantes no nativos) y pueden ser eludidos con relativa facilidad. Depender únicamente de la detección es una estrategia frágil.
Para fomentar prácticas en educación que reconozcan el potencial de la GenAI y apoyen a los estudiantes de todas las disciplinas a usar estas tecnologías de manera apropiada, la narrativa en torno a la GenAI en la Educación Superior debe ir más allá del simple enfoque en el "engaño" o la mala conducta. Las preocupaciones sobre la deshonestidad académica no son nuevas, y la mala conducta en las tareas de evaluación utilizando GenAI puede verse como una extensión de comportamientos estudiantiles preexistentes.
Un diseño cuidadoso de la evaluación y del currículo puede reducir la tentación de los estudiantes a cometer mala conducta académica, mientras que una articulación clara de las directrices y regulaciones puede reducir las oportunidades de deshonestidad académica relacionada con la IA.
Considero necesario criticar la proliferación emergente de herramientas de detección de GenAI y su papel en las conversaciones sobre integridad académica. Aunque los proveedores de software como Turnitin y GPTZero afirman que su software es preciso en la detección de contenido generado por IA en el trabajo estudiantil, un creciente cuerpo de investigación empírica ha demostrado que estas afirmaciones no son del todo precisas y que las herramientas de detección pueden ser fácilmente evadidas.
En lugar de centrarse exclusivamente en la detección de usos indebidos –una estrategia limitada por la fiabilidad y sesgos de las herramientas de detección –, el AIAS promueve un enfoque proactivo:
Reconociendo la Realidad: La mala conducta académica no es nueva; el uso indebido de estas herramientas es una extensión de comportamientos preexistentes. Ciertos diseños de evaluación (ej. online sin supervisión) son intrínsecamente más propensos a facilitar la deshonestidad.
Diseño Proactivo: Un diseño curricular y de evaluación cuidadoso puede reducir la tentación de recurrir a la mala conducta.
Claridad Normativa: Directrices claras, como las que proporciona el AIAS, reducen las oportunidades de uso indebido por desconocimiento o confusión.
Foco en el Aprendizaje: Al definir explícitamente cómo se pueden (o no) usar las herramientas en cada nivel, fomentamos un uso ético y transparente, centrado en cómo pueden apoyar el aprendizaje, en lugar de solo prevenir el "engaño".
Se trata de construir una cultura de integridad, donde el uso responsable de las herramientas se vea como una habilidad a desarrollar, no solo como una amenaza a controlar.
Este enfoque reconoce que la integridad se cultiva a través de la educación, la claridad normativa y el diseño pedagógico, no solo mediante la vigilancia tecnológica.
6. Dimensiones Éticas en la Integración Tecnológica
La integración de tecnologías generativas exige una consideración rigurosa de sus implicaciones éticas. El AIAS, al promover un uso intencional, nos impulsa a reflexionar sobre:
Sesgos Algorítmicos: La posibilidad de que los modelos perpetúen o amplifiquen sesgos presentes en sus datos de entrenamiento requiere un análisis crítico de sus resultados.
Privacidad y Seguridad: La recopilación y uso de datos generados durante la interacción con estas herramientas plantea interrogantes sobre la privacidad del usuario.
Propiedad Intelectual: La falta de claridad legal sobre la autoría del contenido generado y el uso de material protegido en el entrenamiento de modelos son áreas de preocupación activa.
Impacto Cognitivo: La posibilidad de una dependencia excesiva que afecte el desarrollo de habilidades críticas necesita ser gestionada mediante un diseño pedagógico cuidadoso.
Preparación para el Futuro Laboral: Existe un imperativo ético de preparar a estudiantes y profesionales para interactuar de manera competente y crítica con las herramientas que encontrarán en sus campos.
Abordar estas implicaciones éticas no es solo una cuestión de integración tecnológica responsable, sino también un imperativo educativo. A medida que la GenAI se vuelve cada vez más prevalente en la sociedad, los educadores tienen el deber ético de preparar a los estudiantes para un mundo laboral habilitado por la IA después de la graduación. Al prohibir el uso de herramientas de GenAI o etiquetar su uso como plagio y mala conducta, los educadores pueden estar haciendo un flaco favor a sus estudiantes al no equiparlos con las habilidades necesarias para el futuro.
La opinión de que las herramientas de GenAI amenazan fundamentalmente la integridad académica y permiten el plagio es una simplificación excesiva de esta tecnología compleja. En cambio, las instituciones deben desarrollar políticas que promuevan el uso ético y transparente de la GenAI, considerando la naturaleza multifacética de estas tecnologías y su potencial para mejorar las experiencias de aprendizaje cuando se utilizan de manera responsable.
7. Evolución y Adaptabilidad del Marco
La naturaleza dinámica de las tecnologías generativas implica que cualquier marco de evaluación debe ser adaptable. El AIAS fue concebido con flexibilidad y ha sido objeto de revisiones basadas en la retroalimentación y la experiencia práctica, demostrando su capacidad de evolución.
Los hallazgos iniciales de la implementación piloto del AIAS en BUV, aunque preliminares y con limitaciones (como el estudio en una sola institución y el desafío del rápido desarrollo tecnológico), ofrecieron perspectivas prometedoras. Sugieren que cuando la GenAI se utiliza dentro de parámetros éticos bien definidos, puede mejorar significativamente las experiencias y resultados educativos. La implementación piloto fue instrumental en refinar el AIAS, revelando la necesidad de mayor flexibilidad y un enfoque más matizado en la integración de la IA en diversas disciplinas.
El rápido desarrollo de las tecnologías de GenAI plantea un desafío a la relevancia y aplicabilidad a largo plazo del AIAS. La iteración actual puede no tener en cuenta completamente los futuros avances en las capacidades de GenAI, que podrían introducir nuevos desafíos éticos, pedagógicos y relacionados con la evaluación no considerados en el estudio piloto. No obstante, los cambios observados en las prácticas pedagógicas y el aumento del compromiso estudiantil con las herramientas de GenAI después de la implementación del AIAS sugieren que el marco tiene el potencial de fomentar un entorno de aprendizaje más inclusivo y adaptable.
Para las instituciones y los profesionales, esto requiere:
Monitorización Continua: Estar al tanto de los avances tecnológicos y sus implicaciones pedagógicas.
Diálogo Profesional: Mantener conversaciones abiertas sobre la aplicación y ajuste del marco en diferentes contextos.
Revisión Institucional: Evaluar periódicamente la implementación del AIAS y adaptarlo según sea necesario.
Investigación Colaborativa: Contribuir a la base de evidencia sobre la efectividad de estos marcos y compartir las mejores prácticas.
Las investigaciones futuras deberían centrarse en expandir la base de evidencia de la efectividad del AIAS, explorando su aplicabilidad en diferentes contextos educativos y refinando el marco en respuesta a las capacidades evolutivas de las tecnologías de GenAI. Esto requerirá un esfuerzo colaborativo entre educadores, responsables políticos e investigadores para garantizar que la integración de la GenAI en la Educación Superior sea ética y equitativa, y mejore la experiencia de aprendizaje para todos los estudiantes.
8. Conclusión: Hacia una Integración Estratégica
Desde mi perspectiva como facilitador, docente y consultor en L&D, el Marco AIAS representa un paso estratégico fundamental para abrazar la era de la IA en la educación y el desarrollo profesional. Proporciona un modelo para que las instituciones aborden los nuevos desafíos para la integridad académica, al tiempo que aprovechan la tecnología para crear entornos de aprendizaje más atractivos e inclusivos. Al cambiar el enfoque de la prohibición y la detección a la integración ética y transparente, el AIAS equipa a los estudiantes no solo para tener éxito en sus estudios, sino para prosperar en un mundo profesional cada vez más impulsado por la IA.
La transformación digital en el aprendizaje requiere un liderazgo claro y adaptable, y el AIAS ofrece precisamente esa guía: una herramienta flexible que permite a las instituciones y a los profesionales del L&D diseñar experiencias de aprendizaje y evaluación que son a la vez rigurosas académicamente y preparan a los individuos para el futuro. Se trata de cultivar el juicio evaluativo, promover habilidades de pensamiento de orden superior, y fomentar una alfabetización en IA crítica y responsable.
9. Expertos Clave
Los expertos más destacados en relación con el marco AIAS y su aplicación son sus propios autores y colaboradores, quienes han liderado su desarrollo, implementación y validación empírica:
Mike Perkins: Identificado como autor principal o colaborador clave en múltiples documentos sobre el AIAS. Sus contribuciones incluyen la conceptualización del AIAS, la investigación y análisis de datos en su implementación piloto, y la redacción y revisión de los manuscritos. Sus opiniones, tal como se reflejan en los documentos, abogan por una integración ética y transparente de la GenAI en la evaluación educativa, el desarrollo de políticas institucionales claras, y un cambio de enfoque desde la mera detección de la mala conducta hacia el fomento del uso apropiado de la tecnología. También ha investigado ampliamente las políticas de integridad académica y el uso de herramientas de detección.
Jasper Roe: Coautor clave en el desarrollo e implementación del AIAS1 .... Contribuyó significativamente a la redacción y revisión de los manuscritos126 . Sus perspectivas, basadas en los documentos, se centran en la aplicación del AIAS en contextos de aprendizaje de idiomas (EAP/EFL)6 ... y la comprensión de las percepciones de estudiantes y personal sobre el uso de la IA en la evaluación106 . También ha investigado la "carrera armamentista" entre GenAI y detectores10 ..., y la necesidad de una alfabetización crítica en IA104 . Argumenta que el AIAS apoya un cambio cultural que fomenta la autonomía del estudiante y el compromiso ético con la tecnología10 ....
Leon Furze: Colaborador en la conceptualización y autor principal en la redacción y edición de los manuscritos sobre el AIAS. También fue responsable de la versión inicial de la escala que sirvió como base para el AIAS. Sus contribuciones se centran en la aplicación práctica del AIAS en diversos contextos (K-12, educación superior) y en la comunicación de las actualizaciones de la escala. Su trabajo subraya la necesidad de que el AIAS sea flexible y adaptable para el uso práctico.
Jason MacVaugh: Coautor en el desarrollo e implementación del AIAS. Contribuyó a la revisión y edición de los manuscritos. Su participación en el estudio de caso de BUV sugiere un enfoque en la implementación estratégica del marco dentro de una institución específica. Sus opiniones, están alineadas con la necesidad de un marco práctico para la integración ética de la GenAI en la evaluación.
En resumen, estos expertos defienden el AIAS como una solución estructurada, flexible y ética para integrar la GenAI en la educación, promoviendo la transparencia, el fomento de habilidades de orden superior y un cambio de enfoque desde la detección de la mala conducta hacia el uso responsable y productivo de la tecnología.
Sitio Web de la AI Assessment Scale (AIAS):
https://aiassessmentscale.com/
10. Referencias Bibliográficas
Armstrong, P. (2010). Bloom's taxonomy. Vanderbilt University. Recuperado de https://cft.vanderbilt.edu/guides-sub-pages/blooms-taxonomy/
Bearman, M., Tai, J., Dawson, P., Boud, D., & Ajjawi, R. (2024). Developing evaluative judgement for a time of generative artificial intelligence. Assessment & Evaluation in Higher Education, 0(0), 1-13. https://doi.org/10.1080/02602938.2024.2335321
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big?. En M. C. Elish, W. Isaac, & R. Zemel (Chairs), Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610-623). Association for Computing Machinery. https://doi.org/10.1145/3442188.3445922
Birks, D., & Clare, J. (2023). Linking artificial intelligence facilitated academic misconduct to existing prevention frameworks. International Journal for Educational Integrity, 19, 20. https://doi.org/10.1007/s40979-023-00142-3
COPE. (2023, 13 febrero). Authorship and AI tools. COPE: Committee on Publication Ethics. https://publicationethics.org/cope-position-statements/ai-author
Cotton, D. R. E., Cotton, P. A., & Shipway, J. R. (2023). Chatting and cheating: Ensuring academic integrity in the age of ChatGPT. Innovations in Education and Teaching International, 0(0), 1–11. https://www.google.com/search?q=https://doi.org/10.1080/14703297.2023.2214878
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
Cummings, L., Blount, B., Hudd, S., & Robertson, K. (2024). Academic writing in the age of AI: Assessment in higher education. Assessment & Evaluation in Higher Education, 0(0), 1–14. https://www.google.com/search?q=https://doi.org/10.1080/02602938.2024.2335322
Duah, J. E., & McGivern, P. (2024). How generative artificial intelligence has blurred notions of authorial identity and academic norms in higher education, necessitating clear university usage policies. The International Journal of Information and Learning Technology. https://www.google.com/search?q=https://doi.org/10.1108/IJILT-11-2023-0213
Eager, B., & Brunton, R. (2023). The implications of Generative AI for assessment in higher education: Views of university policy-makers. Journal of University Teaching & Learning Practice, 20(7). https://www.google.com/search?q=https://doi.org/10.53761/1.20.7.017
Elkhatat, A. M., Elsaid, K., & Almeer, S. (2023). Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text. International Journal for Educational Integrity, 19(1), 19. https://doi.org/10.1007/s40979-023-00140-5
European Commission. (2024). Guidelines on the responsible use of generative AI in research developed by the European Research Area Forum — European Commission. https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/guidelines-responsible-use-generative-ai-research-developed-european-research-area-forum-2024-03-20_en
Furze, L., Perkins, M., Roe, J., & MacVaugh, J. (2024a). The AI Assessment Scale (AIAS) in action: A pilot implementation of GenAI-supported assessment. Australasian Journal of Educational Technology. https://doi.org/10.14742/ajet.9434
Furze, L., Perkins, M., Roe, J., & MacVaugh, J. (2024). The Artificial Intelligence Assessment Scale (AIAS): A framework for ethical integration of generative AI in educational assessment. Journal of University Teaching and Learning Practice, 21(06), 06. https://www.google.com/search?q=https://doi.org/10.53761/q3azde36
Liang, W., Yuksekgonul, M., Mao, Y., Wu, E., & Zou, J. (2023). GPT detectors are biased against non-native English writers. arXiv Preprint arXiv:2304.02819.
Lodge, J., Howard, S., Bearman, M., & Dawson, P. (2023). Assessment reform for the age of Artificial Intelligence. Tertiary Education Quality and Standards Agency.
Luo, L. (2024). The elephant in the room: Responding to AI in higher education assessments. Journal of University Teaching & Learning Practice, 21(1), 100005. https://www.google.com/search?q=https://doi.org/10.53761/1.21.01.05
Miao, F., & Holmes, W. (2023). Guidance for generative AI in education and research. UNESCO: United Nations Educational, Scientific and Cultural Organisation. https://unesdoc.unesco.org/ark:/48223/pf0000386693
Moorhouse, B. L., Yeo, M. A., & Wan, Y. (2023). Generative AI tools and assessment: Guidelines of the world’s top-ranking universities. Computers and Education Open, 5, 100151. https://doi.org/10.1016/j.caeo.2023.100151
Perkins, M. (2023). Academic Integrity considerations of AI Large Language Models in the post-pandemic era: ChatGPT and beyond. Journal of University Teaching & Learning Practice, 20(2). https://www.google.com/search?q=https://doi.org/10.53761/1.20.02.07
Perkins, M., Roe, J., & Furze, L. (2024). The AI Assessment Scale Revisited: A Framework for Educational Assessment (arXiv:2412.09029). arXiv. https://www.google.com/search?q=https://doi.org/10.48550/arXiv.2412.09029
Perkins, M., & Roe, J. (2023b). Decoding Academic Integrity Policies: A Corpus Linguistics Investigation of AI and Other Technological Threats. Higher Education Policy. https://doi.org/10.1057/s41307-023-00323-2
Perkins, M., Roe, J., Postma, D., McGaughran, J., & Hickerson, D. (2023). Detection of GPT-4 Generated Text in Higher Education: Combining Academic Judgement and Software to Identify Generative AI Tool Misuse. Journal of Academic Ethics. https://doi.org/10.1007/s10805-023-09492-6
Pratschke, B. M. (2024). Assessing Learning. En B. M. Pratschke (Ed.), Generative AI and Education: Digital Pedagogies, Teaching Innovation and Learning Design (pp. 91–108). Springer Nature Switzerland. https://www.google.com/search?q=https://doi.org/10.1007/978-3-031-67991-9_6
Roe & Perkins (2022). What are Automated Paraphrasing Tools and how do we address them? A review of a growing threat to academic integrity. International Journal for Educational Integrity, 18(1), 1. https://doi.org/10.1007/s40979-022-00109-w
Sadasivan, V. S., Kumar, A., Balasubramanian, S., Wang, W., & Feizi, S. (2023). Can AI-Generated Text be Reliably Detected? (arXiv:2303.11156). arXiv. https://doi.org/10.48550/arXiv.2303.11156
Sutherland-Smith, W., & Dawson, P. (2022). Higher education assessment design. En S. E. Eaton, G. J. Curtis, B. M. Stoesz, J. Clare, K. Rundle, & J. Seeland (Eds.), Contract cheating in higher education: Global perspectives on theory, practice, and policy (pp. 91–105). Springer. https://www.google.com/search?q=https://doi.org/10.1007/978-3-031-12680-2_7
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). Attention Is All You Need. https://doi.org/10.48550/ARXIV.1706.03762
Weber-Wulff, D., Anohina-Naumeca, A., Bjelobaba, S., Foltýnek, T., Guerrero-Dib, J., Popoola, O., Šigut, P., & Waddington, L. (2023). Testing of Detection Tools for AI-Generated Text. International Journal for Educational Integrity, 19(1), 1. https://doi.org/10.1007/s40979-023-00146-z
Yan, L., Sha, L., Zhao, L., Li, Y., Martinez‐Maldonado, R., Chen, G., Li, X., Jin, Y., & Gašević, D. (2024). Practical and ethical challenges of large language models in education: A systematic scoping review. British Journal of Educational Technology, 55(1), 90–112. https://www.google.com/search?q=https://doi.org/10.1111/bjet.13370