Translate

4/13/26

Impacto del uso de la IA en la orientación educativa y profesional en España (2025-2026)

 

Impacto del uso de la IA en la orientación educativa y profesional en España (2025-2026)

En España, la inteligencia artificial (IA), especialmente la IA generativa, ha pasado en los últimos dos años de ser un uso individual y desigual a situarse en la agenda institucional y en las prácticas cotidianas de estudiantes y profesionales de la orientación. El impacto principal en la orientación educativa y profesional no reside en sustituir al orientador, sino en tres ejes: aumento de la productividad (automatización de tareas administrativas y de redacción), ampliación del acceso a información orientadora y necesidad de nuevas competencias digitales, éticas y de gobernanza de datos.

1. Contexto de adopción de IA en España

1.1 Uso social y empresarial de la IA

Los datos oficiales del Instituto Nacional de Estadística (INE) muestran que en 2025 el 37,9% de la población de 16 a 74 años había utilizado herramientas de IA generativa en los tres últimos meses. En paralelo, el 21,1% de las empresas españolas de diez o más empleados declaraba usar sistemas de IA en el primer trimestre de 2025. Este doble movimiento (uso ciudadano y empresarial) es relevante para la orientación porque condiciona tanto las expectativas del alumnado como las formas de selección y gestión de talento en el mercado laboral de destino.

Diversos análisis de política pública subrayan que la IA se ha incorporado a la agenda de digitalización del país (Agenda España Digital 2026, Plan Nacional de Competencias Digitales y Plan #DigEdu), que marca objetivos de modernización del sistema educativo y del mercado de trabajo apoyados en tecnologías de datos y automatización.

1.2 Programa de IA para la Educación y "chatbot oficial"

En marzo de 2026, el Gobierno anunció el Programa de Inteligencia Artificial para la Educación, dotado con 140 millones de euros, que incluye el despliegue de un "chatbot oficial" para la enseñanza pública destinado a generar primeras versiones de evaluaciones, informes y documentación administrativa, así como a apoyar tareas docentes. El objetivo declarado es reducir la carga burocrática del profesorado y liberar tiempo para la enseñanza y el acompañamiento directo al alumnado.

Para la orientación educativa y profesional, este giro es significativo porque parte de las tareas que se automatizan (informes, comunicaciones, adaptación de documentación) están estrechamente relacionadas con el trabajo de los equipos de orientación, lo que reconfigura tiempos, flujos de trabajo y fronteras entre tareas puramente administrativas y tareas de acompañamiento.

2. La IA en las decisiones de los estudiantes y el rol del orientador

2.1 Uso masivo de IA por adolescentes en orientación académica

Un artículo reciente en Educaweb, que sintetiza resultados de estudios internacionales como el Annual Student Quest Survey 2024, estima que más del 85% de los adolescentes utiliza herramientas de IA en su proceso de orientación académica. Estas herramientas se emplean para resolver preguntas concretas sobre comparación entre Formación Profesional y universidad, salidas laborales de distintos itinerarios, requisitos de acceso o demandas futuras del mercado de trabajo.

El mismo análisis destaca que la IA ofrece respuestas rápidas, comparativas estructuradas y una aparente personalización inmediata, lo que da a los estudiantes la sensación de tomar decisiones informadas aun cuando no exista una formación específica para interpretar adecuadamente esa información. Esto genera una brecha entre el uso intensivo de IA por parte del alumnado y la preparación del sistema educativo para acompañar críticamente ese uso.

2.2 De "monopolio de la información" a acompañamiento crítico

La literatura profesional española reciente plantea que los orientadores están perdiendo el "monopolio de la información" sobre itinerarios académicos y profesionales frente a los sistemas de IA generativa, que ya ofrecen comparativas, simulaciones de escenarios y sugerencias de itinerarios personalizados a gran escala. El valor diferencial del orientador se desplaza, por tanto, desde proporcionar información hacia interpretar, contextualizar y acompañar la toma de decisiones.

Diversos autores defienden que la IA informa, pero no acompaña: puede ordenar normativa, comparar estudios, analizar tendencias de empleabilidad y estructurar grandes volúmenes de datos en segundos, pero no conoce en profundidad el contexto familiar, social y emocional del estudiante ni percibe sus inseguridades, duelos o presiones externas. En esta perspectiva, la IA se plantea como herramienta complementaria que mejora la preparación de entrevistas y la organización de la información, mientras la orientación humana sigue siendo irrenunciable en las decisiones de alto impacto vital.

3. Cambios en las tareas de los orientadores

3.1 Automatización de tareas administrativas y de redacción

Los análisis centrados en la práctica orientadora identifican la mayor aportación inmediata de la IA en la reducción de fricción: sistematizar información dispersa, preparar entrevistas, redactar borradores de documentos y personalizar recursos. En el entorno escolar y universitario, la IA se emplea para:

·        Elaborar borradores de informes psicopedagógicos y comunicaciones a familias (sin datos identificables o en entornos controlados).

·        Generar guiones y bancos de preguntas para entrevistas de orientación vocacional.

·        Convertir normativa compleja y ofertas formativas en comparativas claras y accesibles.

·        Diseñar materiales para tutoría y actividades de exploración vocacional.

Estudios específicos sobre IA generativa en la Formación Profesional, publicados en la revista Cuadernos del Mercado de Trabajo del SEPE, subrayan que estos usos pueden aumentar la eficiencia y liberar tiempo para el acompañamiento personalizado siempre que se mantenga supervisión humana sobre los productos generados.

3.2 Información y "primera capa" de orientación

Un estudio español reciente, publicado en la Revista de Educación, evaluó la calidad de las respuestas de modelos como Copilot y ChatGPT ante preguntas reales de orientación universitaria (acceso, gestión, dificultad y empleabilidad en universidades públicas). Las conclusiones apuntan a que estos modelos pueden ser útiles como servicio informativo de primera capa, siempre que se apoyen en fuentes institucionales de calidad, pero que no son suficientes como sistema de orientación completo.

Cuando la información institucional es confusa o incompleta, la IA no corrige el problema, sino que lo amplifica o lo disimula con respuestas plausibles pero erróneas, lo que refuerza la necesidad de revisión por parte de orientadores y de mejoras en la transparencia de las propias instituciones educativas.

4. Evidencia en Formación Profesional y servicios públicos de empleo

4.1 IA generativa en Formación Profesional

Un informe de Ayuda en Acción sobre la IA en la Formación Profesional indica que más del 60% del profesorado de FP encuestado ha utilizado herramientas generativas como ChatGPT, principalmente para preparar materiales didácticos y actividades en el aula. Sin embargo, el mismo informe señala que el uso de estas herramientas en funciones de orientación o acompañamiento se aborda con mucha cautela, por el riesgo de sustituir el criterio experto por algoritmos opacos que podrían estigmatizar al alumnado vulnerable.

Esta cautela se traduce en recomendaciones explícitas: limitar la intervención automatizada a tareas de apoyo (organización de información, redacción, diseño de recursos), mantener el control humano sobre juicios diagnósticos y decisiones de trayectoria, y garantizar que cualquier uso de IA en orientación respete la equidad y los derechos del alumnado.

4.2 IA en los servicios públicos de empleo y orientación laboral

La Ley 3/2023 de Empleo y los desarrollos posteriores sitúan la intermediación laboral y la orientación entre las funciones centrales de los Servicios Públicos de Empleo, promoviendo el uso de técnicas de analítica avanzada e inteligencia artificial para el perfilado competencial y el diseño de itinerarios personalizados. Un artículo del Observatorio de las Ocupaciones del SEPE describe cómo la IA puede mejorar la eficiencia del emparejamiento entre ofertas de empleo y demandantes, siempre bajo el principio de no depender exclusivamente de medios automatizados en las decisiones de colocación.

En este marco, la IA se utiliza para elaborar perfiles individualizados de personas demandantes de empleo, identificar brechas de competencias y recomendar acciones formativas o de búsqueda activa de empleo; el acompañamiento, sin embargo, sigue recayendo en profesionales de la orientación laboral, que interpretan los datos y adaptan los itinerarios a la situación concreta de cada persona.

5. Percepción y formación de los profesionales de la orientación

5.1 Percepción del potencial y de los riesgos

Investigaciones sobre el impacto de la IA en educación recogen que una mayoría del profesorado español ha usado herramientas de IA en alguna ocasión, sobre todo para generar ideas de clase y complementar contenidos. Al mismo tiempo, un porcentaje elevado de docentes y familias considera que la formación específica en IA es insuficiente, lo que genera un clima de cautela ante su integración en procesos sensibles como la orientación académica.

Informes del SEPE y de organizaciones del tercer sector coinciden en que la IA puede aliviar tareas burocráticas y apoyar la orientación laboral personalizada, pero advierten del riesgo de aumentar sesgos y desigualdades si se automatizan decisiones sin supervisión o si los algoritmos no son transparentes. Esta tensión entre oportunidades y riesgos es especialmente visible en entornos de alta vulnerabilidad social.

5.2 Respuesta formativa y desarrollo profesional

La respuesta del sector de la orientación incluye el desarrollo de acciones formativas específicas sobre IA aplicada a la orientación educativa y profesional, organizadas por asociaciones como COPOE, universidades y centros de formación permanente. Estas acciones abordan tanto competencias técnicas (uso de herramientas generativas, diseño de prompts, integración en flujos de trabajo) como competencias éticas y de protección de datos.

Se observa una tendencia a considerar la competencia en IA como parte del "oficio" del orientador, no como una moda pasajera; las propuestas formativas incluyen también el diseño de protocolos internos de uso (qué datos se introducen, quién valida los borradores, cómo se explicita al alumnado el papel de la IA en el proceso de orientación).

6. Gobernanza, derechos y marco regulatorio

6.1 Protección de datos y plataformas educativas

En 2026, las autoridades de protección de datos españolas publicaron un decálogo de principios básicos para la contratación y uso de plataformas educativas digitales, subrayando que el alumnado es un colectivo especialmente protegido y que el uso de dichas plataformas no es voluntario para menores y familias. Este documento diferencia entre servicios básicos y servicios adicionales (como buscadores o herramientas de IA), y entre datos aportados por usuarios y datos generados automáticamente, con implicaciones directas para la orientación que se apoye en herramientas de IA integradas en plataformas educativas.

La Agencia Española de Protección de Datos (AEPD) publicó además un decálogo específico para proteger la privacidad al usar herramientas de IA, con recomendaciones aplicables directamente a los orientadores: no introducir datos personales o sensibles de estudiantes, evitar información identificable de terceros y mantener una postura crítica ante respuestas verosímiles pero potencialmente erróneas.

6.2 AI Act y clasificación de alto riesgo en educación

El Reglamento europeo de IA (AI Act) sigue un enfoque basado en el riesgo y clasifica como sistemas de alto riesgo aquellos destinados a determinar acceso o admisión, evaluar resultados de aprendizaje o asignar personas en educación y formación profesional. Esta clasificación implica requisitos reforzados de transparencia, documentación, supervisión humana y mitigación de sesgos para cualquier sistema de IA que intervenga de forma significativa en decisiones educativas.

Para la orientación educativa y profesional, este marco significa que la automatización de decisiones de acceso, derivación o etiquetado de alumnado vulnerable entra en un territorio regulatorio especialmente exigente; la recomendación general de los organismos europeos es mantener la IA como apoyo informativo y analítico, con decisiones finales siempre asumidas por profesionales responsables.

7. Síntesis: cómo está influyendo la IA en el trabajo de los orientadores

A partir de la evidencia revisada, pueden destacarse las siguientes influencias clave de la IA en el trabajo de los orientadores educativos y profesionales en España:

·        Productividad y reorganización del tiempo: La IA permite automatizar parte de la redacción de informes, comunicaciones y materiales de tutoría, así como sistematizar información compleja, lo que libera tiempo potencial para entrevistas y acompañamiento individual.

·        Desplazamiento del foco profesional: El orientador deja de ser la fuente exclusiva de información y se convierte en intérprete crítico de datos generados por IA, ayudando al alumnado a contextualizar y contrastar lo que recibe de estas herramientas.

·        Nuevas competencias profesionales: Se requiere formación específica en IA (técnica, ética y jurídica), así como habilidades para diseñar protocolos de uso, gestionar la protección de datos y trabajar la alfabetización crítica del alumnado frente a recomendaciones automatizadas.

·        Interacción con marcos institucionales y regulatorios: La adopción de IA en educación y empleo está mediada por programas públicos (como el chatbot oficial educativo) y por un marco normativo que considera de alto riesgo determinadas aplicaciones en educación, obligando a mantener la supervisión humana en orientación.

·        Riesgo de sesgos y desigualdades: Estudios en FP y servicios de empleo alertan de que el uso acrítico de algoritmos en decisiones de orientación y colocación puede reforzar estereotipos y perjudicar a colectivos vulnerables, lo que exige un diseño cuidadoso de sistemas y procedimientos de revisión.

En conjunto, la IA está influyendo de manera notable en la orientación educativa y profesional en España, pero su impacto final dependerá de cómo se gobierne: si se consolida como infraestructura silenciosa que reduce burocracia y mejora la calidad del acompañamiento humano, o si se usa como sustituto barato que delega en algoritmos decisiones complejas con consecuencias vitales para el alumnado.

References

1.      IA y Educación - Fundación Cotec - Los profesionales del sector educativo valoran, en particular, el potencial de la IA en la automatiz...

2.     IA generativa y orientación académica: informar no es ... - La IA también abre oportunidades. Permite diseñar simulaciones de entrevistas, explorar escenarios p...

3.      I.A. EN ORIENTACIÓN EDUCATIVA Y PROFESIONAL - La IA entra en el despacho del orientador educativo y profesional en España · Sumario: · Introducció...

4.     La IA aplicada a los servicios públicos de empleo. Hacia un sistema ... - La IA aplicada a los servicios públicos de empleo. Hacia un sistema de intermediación, orientación y...

5.      Inteligencia artificial y educación - Oficina C - La comunidad experta insta a debatir cómo encaja la IA en el sistema educativo y a decidir cómo dota...

6.     LA INTELIGENCIA ARTIFICIAL EN LA FORMACIÓN ... - La integración de herramientas de. IA en el entorno educacional es también una preocupación comercia...

7.      El impacto de la IA en la educación en España. Familias ... - Principales datos y conclusiones de la investigación que analiza el uso y percepción de las Familias...

8.     Curso online exprés de COPOE: "Cómo aplicar la inteligencia ... - Este curso exprés organizado por COPOE tiene como principal objetivo brindar una visión general y ac...

9.     Agencia Española de Protección de Datos. (2026a, 23 de marzo). Las Autoridades de Protección de Datos publican un decálogo de principios básicos para la contratación y el uso de plataformas educativas digitales [Nota de prensa]. Agencia Española de Protección de Datos. https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas

10.   Agencia Española de Protección de Datos. (2026b, 27 de enero). La AEPD publica un decálogo con recomendaciones para proteger la privacidad al usar herramientas de IA [Nota de prensa]. Agencia Española de Protección de Datos. https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia

11.    Agencia Española de Protección de Datos. (2026). Recomendaciones para proteger la privacidad al usar herramientas de IA (“Cuidado con lo que le confías”) [Guía]. Agencia Española de Protección de Datos. https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf

12.   Agencia Española de Supervisión de la Inteligencia Artificial. (2025). Sistemas de alto riesgo (RIA). Agencia Española de Supervisión de la Inteligencia Artificial. https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo

13.   Ayuda en Acción. (2025). La inteligencia artificial en la Formación Profesional [Informe]. Ayuda en Acción. https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf

14.   Cotec Fundación para la Innovación. (2025). IA y educación [Proyecto e informe de resultados]. Fundación Cotec para la Innovación. https://cotec.es/proyectos-cpt/ia-y-educacion/

15.   Educaweb. (2026, 26 de febrero). IA generativa y orientación académica: informar no es acompañar. Educaweb. https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/

16.   Empantallados, & GAD3. (s. f.). El impacto de la IA en la educación en España. Familias y escuelas ante la Inteligencia Artificial [Informe]. Observatorio FIEX. https://observatoriofiex.es/el-impacto-de-la-ia-en-la-educacion-en-espana-familias-y-escuelas-ante-la-inteligencia-artificial/

17.   European Commission. (2026, 5 de marzo). Guidelines on the ethical use of artificial intelligence and data in teaching and learning for educators (actualización 2026). European Commission. https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence

18.   Instituto Nacional de Estadística. (2025a, 20 de noviembre). Encuesta sobre Equipamiento y Uso de Tecnologías de la Información y Comunicación en los Hogares. Año 2025 (nota de prensa). Instituto Nacional de Estadística. https://www.ine.es/dyngs/Prensa/TICH2025.htm

19.   Instituto Nacional de Estadística. (2025b, 22 de octubre). Encuesta sobre el uso de TIC y del comercio electrónico en las empresas. Año 2024 – Primer trimestre 2025 (datos definitivos). Instituto Nacional de Estadística. https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm

20.  Mayor-Alonso, E., Vidal, J., & Rodríguez-Esteban, A. (2026). Evaluación de la calidad de modelos de IA generativa como aplicaciones de orientación universitaria. Revista de Educación, 411. https://recyt.fecyt.es/index.php/Redu/article/view/108970

21.   Oficina de Ciencia y Tecnología del Congreso de los Diputados (Oficina C). (2024). Inteligencia artificial y educación: Retos y oportunidades en España. Oficina de Ciencia y Tecnología del Congreso de los Diputados. https://doi.org/10.57952/hqct-6d69

22.  Orientar con IA. (2026). La IA entra en el despacho del orientador educativo y profesional en España [Informe en línea]. Blog I.A. en orientación educativa y profesional. https://orientarconia.blogspot.com

23.  Servicio Público de Empleo Estatal. (s. f.). La inteligencia artificial generativa en la Formación Profesional [Artículo]. Cuadernos del Mercado de Trabajo – Observatorio de las Ocupaciones (SEPE). https://www.sepe.es/HomeSepe/que-es-observatorio/Hipatia/cuadernos-mercado-trabajo/revista-cuadernos-mercado-trabajo/detalle-articulo-ia-servicios-publicos-empleo.html

3/28/26

La IA entra en el despacho del orientador educativo y profesional en España

 

La IA entra en el despacho del orientador educativo y profesional en España

Sumario:

·       Key Insight 1: En los últimos doce meses, la IA ha pasado de ser un uso individual y desigual a convertirse en agenda institucional: el Gobierno ha anunciado un programa de 140 millones de euros con “chatbot oficial” para tareas de evaluación e informes, y en paralelo España impulsa una familia de modelos públicos (ALIA) con narrativa de soberanía y uso en administraciones. [1]

·       Key Insight 2: Para la orientación, el mayor valor inmediato no está en “recomendar futuros” sino en reducir fricción: sistematizar información, preparar entrevistas, redactar borradores de documentos y personalizar recursos. La evidencia española más directa (universidad) apunta a potencial real, pero muy dependiente de la calidad de las fuentes y con fallos típicos de “alucinación” y confusión en trámites. [2]

·       Key Insight 3: El impacto se decidirá en la gobernanza: protección de datos (menores y plataformas “no voluntarias”), transparencia, sesgos y límites de uso. En 2026 la AEPD ha publicado dos decálogos (plataformas educativas y privacidad en IA), mientras el Reglamento europeo de IA clasifica como “alto riesgo” usos en educación y formación (admisión, evaluación, asignación), lo que eleva exigencias para cualquier automatización que afecte decisiones vitales del alumnado. [3]

Introducción:

La orientación educativa y profesional vive una paradoja: nunca hubo tanta información (itinerarios, FP, universidad, microcredenciales, tendencias del empleo), y sin embargo la capacidad humana para convertir información en decisión —en acompañamiento— sigue siendo el cuello de botella. En España, esa tensión se agrava por carencias estructurales reconocidas desde el propio sector: la orientación aparece como menos desarrollada que en otros países europeos, con déficits de recursos y de enfoque sistémico. [4]

En ese escenario, la IA generativa se ha colado por dos puertas a la vez. Por arriba, como política pública y promesa de desburocratización; por abajo, como herramienta cotidiana (ChatGPT u otras) que profesorado y alumnado utilizan ya con normalidad. El resultado es una adopción rápida… y a menudo desordenada. [5]

Enfoque editorial (tres ángulos complementarios) —que organizan el reportaje y, a la vez, reflejan dónde se decide su impacto real—: - Institucionalización y escala: qué está ocurriendo en política pública, datos de adopción y “efecto arrastre” en centros. [6]
- Práctica orientadora y evidencia: qué tareas mejora de verdad, qué no debe hacer, y qué aprendizajes dejan los casos y estudios disponibles.
[7]
- Gobernanza, riesgos y derechos: privacidad, sesgos, transparencia y el nuevo marco regulatorio europeo y español que condicionará herramientas y decisiones.
[8]

Este reportaje se centra en España y en el periodo comprendido entre finales de marzo de 2025 y finales de marzo de 2026, priorizando fuentes profesionales en español, organismos oficiales, papers y documentación técnica pública. [9]

Del uso informal al “chatbot oficial”: la IA se institucionaliza y cambia el terreno de juego:

En marzo de 2026, la noticia que marca un punto de inflexión no viene de una startup ni de un centro innovador, sino del Estado: el Gobierno ha lanzado el Programa de Inteligencia Artificial para la Educación, dotado con 140 millones de euros, con un “chatbot oficial” para la enseñanza pública orientado a generar primeras versiones de evaluaciones, informes y documentación administrativa, además de apoyo a tareas docentes. La lógica explícita es liberar tiempo (especialmente burocrático) para devolverlo a la enseñanza… y, por extensión, al acompañamiento. [10]

Para orientación educativa y profesional, el subtexto es relevante: si el sistema coloca IA en el circuito de evaluación e informes, se reducirán algunas tareas colindantes con orientación (adaptaciones, informes individualizados, comunicación con familias), pero también aparece un riesgo de normalización de la automatización en decisiones sensibles. El propio debate público ya incorpora alertas sobre sesgos y necesidad de información a representantes de trabajadores cuando un algoritmo afecta condiciones de trabajo o procesos de alto impacto. [11]

El “momento IA” no es una burbuja aislada del resto de la sociedad: los datos oficiales muestran que el uso de IA se está extendiendo de forma masiva. El INE estimó que el 37,9% de la población de 16 a 74 años utilizó herramientas de IA generativa en los tres últimos meses (dato 2025), y que el 21,1% de las empresas de diez o más empleados usaba IA (primer trimestre de 2025). Esto importa a la orientación porque el alumnado llega ya con prácticas y expectativas, y porque el mercado laboral receptor incorpora IA a procesos de selección y gestión. [12]

En paralelo a la IA “comprada fuera”, España ha reforzado en 2026 un relato de IA pública y auditables. El Ministerio para la Transformación Digital y de la Función Pública ha impulsado el “Desafío ALIA” (con participación de más de mil personas) para alinear la familia pública de modelos lingüísticos y mejorar su comportamiento ante peticiones problemáticas, con énfasis en lenguaje inclusivo y reducción de estereotipos. Más allá del detalle técnico, el mensaje para orientación es político y práctico: si la administración adopta IA, tenderá a favorecer infraestructuras con mejor trazabilidad y control (al menos en teoría), lo que puede facilitar despliegues en educación con menor fricción jurídica que las herramientas generalistas. [13]

Una consecuencia poco visible, pero decisiva, es que la institucionalización “mueve” el debate desde el “¿lo uso o no?” hacia el “¿bajo qué condiciones y con qué controles?”. En orientación, esto desplaza el foco a protocolos: qué datos se introducen, quién valida los borradores, cómo se explica al alumnado el papel de la IA y cómo se evita que una recomendación automática sustituya la deliberación educativa. [6]

Para orientar en 2026, el reto ya no es únicamente aprender a redactar prompts, sino navegar un sistema donde la IA está entrando en: (a) la trastienda administrativa (informes, evaluaciones), (b) la clase (tareas y aprendizaje), y (c) el entorno laboral (empresas y selección). La orientación queda en medio: traduciendo decisiones educativas a trayectorias vitales y profesionales, y haciendo de “puente” entre información, persona y oportunidades reales. [14]

Cronología (hitos institucionales y de adopción social en España, últimos doce meses), elaborada a partir de fuentes oficiales y prensa profesional: [15]

timeline
    title Hitos de adopción y gobernanza de IA con impacto en educación y orientación (España)
    2025-11-20 : INE publica que 37,9% de la población (16-74) usó IA generativa en los últimos 3 meses
    2025-10-22 : INE publica que 21,1% de empresas (10+ empleados) usa IA (1T 2025)
    2026-03-04 : El Gobierno impulsa el 2º Desafío ALIA (más de 1.000 participantes) para alinear IA pública
    2026-03-25 : Programa de IA para la Educación (140 M€) con “chatbot oficial” para evaluaciones e informes
    2026-03-26 : Confirmación en prensa profesional del programa de IA educativa y su foco en burocracia

Sources: 1. El País[16]. “Los profesores de la enseñanza pública harán con una IA oficial la primera evaluación de los alumnos”. El País, 25/03/2026. URL: https://elpais.com/educacion/2026-03-25/los-profesores-de-la-ensenanza-publica-haran-con-una-ia-oficial-la-primera-evaluacion-de-los-alumnos.html. [17]
2. Magisnet
[18] (Agencia EFE[19]). “Educación crea una IA específica para quitar burocracia a los docentes y apoyar sus tareas”. Magisnet, 26/03/2026. URL: https://www.magisnet.com/2026/03/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/. [20]
3. Instituto Nacional de Estadística
[21]. “Encuesta sobre Equipamiento y Uso de Tecnologías de la Información y Comunicación en los Hogares (TICH). Año 2025 (nota de prensa)”. INE, 20/11/2025. URL: https://www.ine.es/dyngs/Prensa/TICH2025.htm. [22]
4. Instituto Nacional de Estadística
[21]. “Encuesta sobre el uso de TIC y del comercio electrónico en las empresas. Año 2024 – Primer trimestre 2025 (datos definitivos)”. INE, 22/10/2025. URL: https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm. [23]
5. Ministerio para la Transformación Digital y de la Función Pública
[24]. “Más de 1.000 personas colaboran en el desafío para alinear la inteligencia artificial pública ALIA con valores éticos y libre de sesgos”. Portal MTDFP (Notas de prensa), 04/03/2026. URL: https://digital.gob.es/comunicacion/notas-prensa/secretaria-digitalizacion-e-inteligencia-artificial/2026/03/mas-de-1-000-personas-colaboran-en-el-desafio-para-alinear-la-in. [25]

La IA en orientación: productividad real, límites humanos y una evidencia española que “sí, pero”:

La conversación pública sobre IA suele oscilar entre el hype (“lo resolverá todo”) y el rechazo (“deshumaniza”). En orientación, esa polarización es especialmente peligrosa porque el daño potencial es alto: un mal consejo puede cristalizar desigualdades, reforzar estereotipos y empujar decisiones tempranas. Por eso importa un enfoque más sobrio: ¿qué tareas mejora, cuáles empeora y cuáles no debería tocar? [26]

La evidencia española más directa en el periodo analizado llega desde la universidad. Un estudio publicado en la Revista de Educación evaluó la calidad y fiabilidad de respuestas de Copilot y ChatGPT ante preguntas reales (acceso, gestión, dificultad y empleabilidad) para universidades públicas. La conclusión central no es “la IA orienta”, sino algo más matizado: los modelos pueden ser útiles como servicio informativo de primera capa, pero su eficacia depende de la calidad y accesibilidad de la información institucional; cuando la web es confusa o incompleta, la IA no “arregla” el problema, lo amplifica o lo disimula con respuestas plausibles.

Ese matiz conecta con una idea clave para orientadores en activo: la IA es especialmente fuerte en estructurar (resumir normativa interna, comparar itinerarios, proponer preguntas), y especialmente débil en comprender contexto humano (familia, duelo, presión social, identidad, expectativas). En la literatura profesional española reciente, esa frontera aparece de forma explícita: la IA puede proponer comparativas y tendencias, incluso itinerarios “personalizados” si el propio alumno introduce datos, pero “informar no es acompañar”; la herramienta no conoce el ecosistema emocional ni social del estudiante. [27]

En paralelo, el campo está probando “personajes” y experiencias públicas de orientación con IA. Un ejemplo mediático es la campaña universitaria que presenta a “Sofía” como orientadora universitaria generada por IA, pensada para hablar el lenguaje y los canales de la generación joven. Aunque no demuestra eficacia educativa, sí muestra una tendencia: la orientación se “plataformiza” y adopta formatos conversacionales que compiten con el orientador humano por la atención del alumnado. La cuestión es si esa competencia se convierte en cooperación (triage y derivación) o en sustitución (asistencia barata sin garantías). [28]

En Formación Profesional, la investigación aplicada y los informes sectoriales describen un patrón similar: uso generalizado de IA generativa (principalmente ChatGPT) para tareas de preparación de materiales, pero cautela (o rechazo) ante automatizar tutoría y orientación. Un informe de Ayuda en Acción[29] identifica que más del 60% del profesorado de FP encuestado ha utilizado herramientas como ChatGPT; al mismo tiempo, el propio informe subraya que el uso en funciones de orientación o acompañamiento se observa “con mucha cautela” por el riesgo de sustituir criterio experto por algoritmos opacos y sesgados que podrían estigmatizar al alumnado vulnerable. [30]

La SEPE[31], desde su revista del Observatorio, formula el límite con claridad: la IA puede ayudar en muchos aspectos y aliviar tareas burocráticas, pero no debe reemplazar el acompañamiento humano en tutoría y orientación profesional; automatizarlo puede aumentar sesgos y desigualdades. Esta postura, aunque prudente, no es antitecnológica: propone IA para sistematizar información local y recursos, con interpretación por personal experto. [32]

A partir de estas fuentes, se puede describir una “matriz de valor” para el orientador en activo (no como receta universal, sino como guía operativa):

Dónde suele aportar más (bajo a medio riesgo): redactar borradores de comunicaciones, preparar guiones de entrevista, generar bancos de preguntas para exploración vocacional, convertir información dispersa (ciclos, salidas, requisitos) en comparativas legibles, diseñar materiales para tutoría, crear rúbricas y checks de itinerarios, y analizar tendencias de empleabilidad a partir de fuentes verificables. [33]

Dónde la prudencia debe ser máxima (alto riesgo): recomendar itinerarios “óptimos” sin supervisión, etiquetar perfiles (“apto/no apto”), inferir motivaciones o estados emocionales, automatizar decisiones que impacten acceso, evaluación y derivación, o trabajar con datos personales de menores en plataformas no autorizadas por el centro/administración. [34]

Finalmente, un aspecto que a menudo se olvida: la adopción real requiere formación y comunidad profesional. En España se observa una respuesta formativa explícita en cursos orientados a la competencia digital del orientador y a las posibilidades de la IA en su práctica diaria, lo que sugiere que la IA ya se entiende como parte del “oficio”, no como moda pasajera. [35]

Sources: 1. Educaweb[36]. “IA generativa y orientación académica: informar no es acompañar”. Educaweb, 26/02/2026. URL: https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/. [27]
2. Estela Mayor-Alonso; Javier Vidal; Agustín Rodríguez-Esteban (Universidad de León
[37]). “Evaluación de la calidad de modelos de IA generativa como aplicaciones de orientación universitaria”. Revista de Educación[38], nº 411, enero–marzo 2026. URL: https://recyt.fecyt.es/index.php/Redu/article/view/108970.
3. Ayuda en Acción
[29]. “La Inteligencia Artificial en la Formación Profesional (Informe)”. Ayuda en Acción, 07/2025. URL: https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf. [39]
4. SEPE
[31]. “La Inteligencia Artificial Generativa en la Formación Profesional”. Cuadernos del Mercado de Trabajo (Observatorio SEPE), (fecha en página del artículo), 2025–2026. URL: https://www.sepe.es/HomeSepe/eu/que-es-observatorio/Hipatia/cuadernos-mercado-trabajo/revista-cuadernos-mercado-trabajo/detalle-articulo.html?detail=%2Frevista%2FInteligencia-Artificial%2Flainteligenciaartificialgenerativaenlaformacionprofesional. [32]
5. Magisnet
[18]. “Sofía, la primera orientadora universitaria completamente generada por IA en España”. Magisnet, 01/07/2025. URL: https://www.magisnet.com/2025/07/sofia-la-primera-orientadora-universitaria-completamente-generada-por-ia-en-espana/. [28]
6. Universidad de Burgos
[40]. “Orientación Educativa y Propuestas Innovadoras. III edición – UBUAbierta” (curso). Universidad de Burgos, calendario 18/02/2026–25/03/2026. URL: https://www.ubu.es/te-interesa/orientacion-educativa-y-propuestas-innovadoras-iii-edicion-ubuabierta. [41]
7. COPOE
[42]. “Seminario: Inteligencia Artificial en Orientación Educativa y Profesional” (anuncio). COPOE, 28/03/2025. URL: https://copoe.org/agenda/seminario-inteligencia-artificial-en-orientacion-educativa-y-profesional/. [43]

Riesgos, oportunidades y reglas del juego: privacidad, sesgos y el nuevo marco de gobernanza:

Si el valor inmediato de la IA en orientación es la productividad, su condición de posibilidad es la confianza. Y en educación, la confianza se construye con gobernanza: protección de datos (menores), transparencia (qué hace el sistema), rendición de cuentas (quién responde) y límites (qué no se automatiza). En marzo de 2026, las Autoridades de protección de datos españolas han publicado un decálogo de principios básicos para contratación y uso de plataformas educativas digitales, señalando dos ideas que afectan directamente a cualquier uso de IA en centros: (a) los principales afectados son menores y el “interés superior del menor” exige escrutinio reforzado; (b) el uso de la plataforma no es voluntario para alumnado y familias, lo que incrementa la obligación de diligencia del responsable. [44]

El documento también diferencia dimensiones que suelen pasarse por alto cuando se incorpora IA en plataformas: servicios “básicos” vinculados a la función educativa frente a servicios adicionales (buscadores, vídeo, herramientas de IA) que pueden estar bajo condiciones contractuales distintas e incluso situar al proveedor como responsable para fines propios; además distingue datos aportados por usuarios (documentos, calificaciones, comunicaciones) frente a datos generados automáticamente (IPs, metadatos, registros), cuyo tratamiento puede escapar al control efectivo del responsable. En orientación, esto se traduce en una regla práctica: la decisión no es solo “qué herramienta uso”, sino “en qué ecosistema contractual y técnico vive esa herramienta”. [45]

En enero de 2026, la AEPD publicó además un decálogo de recomendaciones para proteger la privacidad al usar herramientas de IA (“Cuidado con lo que le confías”). Varias recomendaciones son directamente accionables por orientadores: no introducir datos personales (nombre, dirección, DNI, imágenes), evitar información sensible, respetar privacidad de terceros (especialmente menores), no incluir información profesional confidencial y mantener postura crítica ante respuestas plausibles pero erróneas. Este decálogo encaja con la realidad diaria de orientación: trabajar con historias personales. Por tanto, si la herramienta no está “institucionalizada” (DPA, controles, autorización del centro), el estándar prudente es usar casos ficticios y datos anonimizados. [46]

La segunda capa de gobernanza llega desde Europa. El Reglamento europeo de IA (AI Act) adopta un enfoque basado en riesgos y clasifica como alto riesgo sistemas destinados a determinar acceso/admisión, evaluar resultados del aprendizaje o asignar personas en educación y formación profesional. Para orientación, el mensaje no es abstracto: cualquier IA que se acerque a “decidir” (admisión, nivel adecuado, evaluación que guía el proceso) entra en un territorio regulatorio más exigente. Incluso cuando un centro use IA para “apoyar” decisiones, el diseño del proceso deberá preservar supervisión humana, documentación, trazabilidad y medidas contra sesgos. [47]

Además, la Comisión Europea ha actualizado en 2026 sus directrices éticas para educadores sobre el uso de IA y datos, justificándolo por el aumento significativo de uso de IA en educación, la llegada de regulación (AI Act) y la necesidad de alfabetización crítica y ética. Para orientación, estas directrices son relevantes porque desplazan la pregunta desde “¿me ayuda?” hacia “¿es justo, explicable y compatible con derechos?”. [48]

Con este marco, la elección de herramientas deja de ser un asunto de preferencias y pasa a ser una decisión de riesgo y cumplimiento. A continuación se propone una tabla comparativa práctica (no exhaustiva) para orientadores en activo. Los costes son orientativos y las garantías dependen del plan y del contexto de contratación (cuenta personal vs. educativa/organizativa). [49]

Herramienta (familia)

Funcionalidad principal

Casos de uso típicos en orientación

Evidencia de eficacia (últimos 12 meses)

Coste aproximado (marzo 2026)

Privacidad / compatibilidad RGPD (orientación en centros)

ChatGPT (OpenAI[50])

Asistente generativo multipropósito (redacción, síntesis, ideación)

Borradores de informes (sin datos personales), guiones de entrevista, materiales de tutoría, comparativas de itinerarios a partir de fuentes aportadas

Estudio español en orientación universitaria sugiere potencial, condicionado por calidad de fuentes (universidades)

Desde 8 USD/mes (Go) y 20 USD/mes (Plus) en precios globales publicados por OpenAI; planes Business/Enterprise varían

Riesgo alto con cuentas personales si se introducen datos de menores; mejor con planes/entornos organizativos donde “no se entrena por defecto” y con controles. Requiere políticas internas y anonimización estricta

Microsoft 365 Copilot (Microsoft[51])

IA integrada en ecosistema M365 (Word, Outlook, Teams) con datos del tenant

Resúmenes de reuniones de orientación (con controles), borradores de comunicaciones, plantillas de informes, análisis de documentos internos

Evidencia indirecta (productividad) y marco de protección empresarial; no específica de orientación escolar

21,84 € por usuario/mes (Copilot Business, compromiso mensual; sin IVA)

Más favorable en organizaciones por “enterprise data protection” y no entrenamiento de modelos fundacionales con prompts/respuestas; sigue exigiendo control de permisos y DPA

Gemini (Google[52])

Asistente generativo y herramientas (Deep Research, NotebookLM) integrables con apps Google

Síntesis de documentos, preparación de sesiones, creación de recursos; NotebookLM para trabajar sobre documentos aportados

Evidencia indirecta; directrices europeas 2026 refuerzan enfoque ético y alfabetización crítica

En España: 7,99 €/mes (AI Plus) y 21,99 €/mes (AI Pro)

Variable: depende de configuración y del tipo de cuenta (personal vs. Workspace/Education). Requiere revisar avisos de privacidad específicos y evitar datos personales salvo marco contractual adecuado

Perplexity (Perplexity AI[53])

“Answer engine” con búsquedas y citas; útil para verificación

Verificar normativa, reunir fuentes laborales/educativas, construir dossiers con citas

Ventaja principal: trazabilidad (respuestas citadas). No evidencia específica de orientación escolar en España

Enterprise (referencia): 20 USD/mes (plan individual Pro aparece en su oferta; Enterprise con escalado)

Útil para verificación por citas; privacidad depende del plan. En entornos educativos, mejor usar configuración/planes con compromisos de datos y evitar datos personales

Recomendaciones prácticas (orientadores en activo) que se desprenden del marco 2026: 1) Separar “IA para escribir” de “IA para decidir”. Lo primero puede ser de bajo riesgo si se anonimizan datos; lo segundo se acerca a “alto riesgo” y exige controles reforzados y, en la práctica, mucha más cautela. [54]
2) Adoptar una regla de oro de datos: si no está en una herramienta aprobada por el centro/administración (o no hay marco contractual claro), no entran datos personales. Trabajar con casos ficticios y plantillas.
[55]
3) Diseñar “doble validación” en productos orientadores: la IA produce el borrador; el orientador valida con fuentes oficiales y contexto del alumno; y se documenta el uso (qué hizo la IA y qué decidió el profesional). La formación docente española ya está incorporando explícitamente modelos de documentación y declaración de uso.
[56]
4) Construir alfabetización crítica del alumnado: si el 37,9% de la población ya usa IA generativa, la orientación debe incluir competencias para evaluar calidad, sesgos y límites de estas herramientas en decisiones académicas y laborales.
[57]

El riesgo más serio en orientación no es que la IA “se equivoque” (eso se puede detectar con procedimientos), sino que se convierta en una autoridad silenciosa: recomendaciones con apariencia de objetividad que el alumno acepta por fatiga informativa, o que el sistema usa para justificar recortes (“si el chatbot lo hace…”). Por eso la oportunidad principal es también cultural: usar IA para liberar tiempo y elevar el acompañamiento humano, no para abaratarlo. [58]

Sources: 1. Agencia Española de Protección de Datos[59]. “Las Autoridades de Protección de Datos publican un decálogo de principios básicos para la contratación y el uso de plataformas educativas digitales”. AEPD (Nota de prensa), 23/03/2026. URL: https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas. [60]
2. Agencia Española de Protección de Datos
[59]; APDCAT; AVPD; CTPDA. “Principios básicos para la contratación y uso de plataformas educativas digitales por las administraciones educativas y centros docentes (Guía publicada en marzo 2026)”. AEPD (PDF), 03/2026. URL: https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf. [61]
3. Agencia Española de Protección de Datos
[59]. “La AEPD publica un decálogo con recomendaciones para proteger la privacidad al usar herramientas de IA”. AEPD (Nota de prensa), 27/01/2026. URL: https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia. [62]
4. Agencia Española de Protección de Datos
[59]. “Recomendaciones para proteger la privacidad al usar herramientas de IA (‘Cuidado con lo que le confías’)”. AEPD (PDF), 2026. URL: https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf. [63]
5. Agencia Española de Supervisión de Inteligencia Artificial
[64]. “Sistemas de alto riesgo (RIA)”. AESIA, 2025–2026. URL: https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo. [65]
6. “Anexo III: Sistemas de IA de alto riesgo (Educación y formación profesional)”. ArtificialIntelligenceAct.eu (texto consolidado y extractos del AI Act), s. f. URL:
https://artificialintelligenceact.eu/es/annex/3/. [66]
7. European Commission
[67]. “Guidelines on the ethical use of artificial intelligence and data in teaching and learning for educators” (actualización 2026). European Commission – Education, 05/03/2026. URL: https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence. [48]
8. OpenAI
[50]. “Business data privacy, security, and compliance” (no training by default en planes Business/Enterprise/Edu y API). OpenAI, (actualizado en el periodo reciente). URL: https://openai.com/business-data/. [68]
9. OpenAI
[50]. “What if I want to keep my history on but disable model training?” (controles para desactivar entrenamiento en planes personales). OpenAI Help Center, (actualizado en el periodo reciente). URL: https://help.openai.com/en/articles/8983130-what-if-i-want-to-keep-my-history-on-but-disable-model-training. [69]
10. Microsoft
[51]. “Enterprise data protection in Microsoft 365 Copilot and Microsoft 365 Copilot Chat”. Microsoft Learn, 08/12/2025. URL: https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection. [70]
11. Microsoft
[51]. “Data, Privacy, and Security for Microsoft 365 Copilot”. Microsoft Learn, 09/03/2026. URL: https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy. [71]
12. Microsoft
[51]. “Microsoft 365 Copilot: Planes y precios (España)”. Microsoft, (consultado en marzo 2026). URL: https://www.microsoft.com/es-es/microsoft-365-copilot/pricing. [72]
13. Google
[52]. “Google AI Pro y Ultra – Suscripciones (España)”. Gemini (Google), (consultado en marzo 2026). URL: https://gemini.google/es/subscriptions/?hl=es. [73]
14. Google
[52]. “Gemini Apps Privacy Notice” (aviso de privacidad). Google Support, actualizado 27/03/2026. URL: https://support.google.com/gemini/answer/13594961?hl=en. [74]
15. Perplexity AI
[53]. “Perplexity Enterprise Pricing”. Perplexity, (consultado en 2026). URL: https://www.perplexity.ai/enterprise/pricing. [75]

Conclusion:

En España, la IA ya no es un “extra” tecnológico: en el último año se ha consolidado como fenómeno social (uso masivo), económico (adopción empresarial) e institucional (programa educativo con inversión pública y despliegue de IA oficial). Para orientación educativa y profesional, este movimiento puede ser una oportunidad histórica si se usa para reducir burocracia y aumentar el tiempo de acompañamiento, no para reemplazarlo. [14]

La evidencia disponible sugiere una conclusión operativa: la IA sirve para informar, organizar y redactar con eficiencia, pero orientar —en sentido pleno— requiere contexto, ética y vínculo. Los casos analizados en FP y universidad convergen en la misma frontera: apoyo sí; sustitución no, especialmente en tareas que pueden amplificar sesgos y desigualdades. [76]

La variable decisiva para los próximos meses será la gobernanza: datos de menores, contratos con plataformas, transparencia y cumplimiento del enfoque de riesgo del AI Act. En 2026, la AEPD y la Comisión Europea han reforzado el mensaje: sin privacidad, sin límites claros y sin alfabetización crítica, la IA no moderniza la orientación; la precariza. Con controles, documentación y supervisión profesional, la IA puede convertirse en la infraestructura silenciosa que libere a los orientadores para lo que ninguna máquina hace: comprender, sostener y abrir posibilidades reales en vidas concretas. [77]


[1] [5] [6] [9] [10] [17] [36] https://elpais.com/educacion/2026-03-25/los-profesores-de-la-ensenanza-publica-haran-con-una-ia-oficial-la-primera-evaluacion-de-los-alumnos.html

https://elpais.com/educacion/2026-03-25/los-profesores-de-la-ensenanza-publica-haran-con-una-ia-oficial-la-primera-evaluacion-de-los-alumnos.html

[2] [7] [18] [26] [27] [33] [40] [42] https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/

https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/

[3] [44] [52] [60] https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas

https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas

[4] [29] https://www.educaweb.com/noticia/2025/11/18/orientacion-academica-profesional-alumnado-principales-carencias-como-afrontarlas-21975/

https://www.educaweb.com/noticia/2025/11/18/orientacion-academica-profesional-alumnado-principales-carencias-como-afrontarlas-21975/

[8] [24] [45] [61] [64] [77] https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf

https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf

[11] [53] https://www.infobae.com/espana/agencias/2026/03/25/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/

https://www.infobae.com/espana/agencias/2026/03/25/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/

[12] [14] [15] [19] [22] [57] https://www.ine.es/dyngs/Prensa/TICH2025.htm

https://www.ine.es/dyngs/Prensa/TICH2025.htm

[13] [25] https://digital.gob.es/comunicacion/notas-prensa/secretaria-digitalizacion-e-inteligencia-artificial/2026/03/mas-de-1-000-personas-colaboran-en-el-desafio-para-alinear-la-in

https://digital.gob.es/comunicacion/notas-prensa/secretaria-digitalizacion-e-inteligencia-artificial/2026/03/mas-de-1-000-personas-colaboran-en-el-desafio-para-alinear-la-in

[16] [30] [34] [39] https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf

https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf

[20] https://www.magisnet.com/2026/03/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/

https://www.magisnet.com/2026/03/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/

[21] [69] https://help.openai.com/en/articles/8983130-what-if-i-want-to-keep-my-history-on-but-disable-model-training

https://help.openai.com/en/articles/8983130-what-if-i-want-to-keep-my-history-on-but-disable-model-training

[23] https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm

https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm

[28] Sofía, la primera orientadora universitaria completamente generada por IA en España - Magisnet

https://www.magisnet.com/2025/07/sofia-la-primera-orientadora-universitaria-completamente-generada-por-ia-en-espana/

[31] [66] https://artificialintelligenceact.eu/es/annex/3/

https://artificialintelligenceact.eu/es/annex/3/

[32] [58] [76] La Inteligencia Artificial Generativa en la Formación Profesional

https://www.sepe.es/HomeSepe/eu/que-es-observatorio/Hipatia/cuadernos-mercado-trabajo/revista-cuadernos-mercado-trabajo/detalle-articulo.html?detail=%2Frevista%2FInteligencia-Artificial%2Flainteligenciaartificialgenerativaenlaformacionprofesional

[35] [41] Orientación Educativa y Propuestas Innovadoras. III edición - UBUAbierta - | Universidad de Burgos

https://www.ubu.es/te-interesa/orientacion-educativa-y-propuestas-innovadoras-iii-edicion-ubuabierta

[37] [47] [54] https://aesia.digital.gob.es/en/presentria-sistemas-de-alto-riesgo

https://aesia.digital.gob.es/en/presentria-sistemas-de-alto-riesgo

[38] [48] https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence

https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence

[43] Utilización de la IA en Orientación Educativa y Profesional

https://www.copoe.org/seminario-permanente-ia?utm_source=chatgpt.com

[46] [50] [62] https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia

https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia

[49] [72] https://www.microsoft.com/es-es/microsoft-365-copilot/pricing

https://www.microsoft.com/es-es/microsoft-365-copilot/pricing

[51] [75] https://www.perplexity.ai/enterprise/pricing

https://www.perplexity.ai/enterprise/pricing

[55] [63] https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf

https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf

[56] [67] https://intef.es/wp-content/uploads/2025/06/Orientaciones-para-la-integracion-de-la-IA-en-la-formacion-docente-2-1.pdf

https://intef.es/wp-content/uploads/2025/06/Orientaciones-para-la-integracion-de-la-IA-en-la-formacion-docente-2-1.pdf

[59] [74] https://support.google.com/gemini/answer/13594961?hl=en

https://support.google.com/gemini/answer/13594961?hl=en

[65] https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo

https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo

[68] https://openai.com/business-data/

https://openai.com/business-data/

[70] https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection

https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection

[71] https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy

https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy

[73] https://gemini.google/subscriptions/?hl=es

https://gemini.google/subscriptions/?hl=es


Entradas populares