Translate

3/28/26

La IA entra en el despacho del orientador educativo y profesional en España

 

La IA entra en el despacho del orientador educativo y profesional en España

Sumario:

·       Key Insight 1: En los últimos doce meses, la IA ha pasado de ser un uso individual y desigual a convertirse en agenda institucional: el Gobierno ha anunciado un programa de 140 millones de euros con “chatbot oficial” para tareas de evaluación e informes, y en paralelo España impulsa una familia de modelos públicos (ALIA) con narrativa de soberanía y uso en administraciones. [1]

·       Key Insight 2: Para la orientación, el mayor valor inmediato no está en “recomendar futuros” sino en reducir fricción: sistematizar información, preparar entrevistas, redactar borradores de documentos y personalizar recursos. La evidencia española más directa (universidad) apunta a potencial real, pero muy dependiente de la calidad de las fuentes y con fallos típicos de “alucinación” y confusión en trámites. [2]

·       Key Insight 3: El impacto se decidirá en la gobernanza: protección de datos (menores y plataformas “no voluntarias”), transparencia, sesgos y límites de uso. En 2026 la AEPD ha publicado dos decálogos (plataformas educativas y privacidad en IA), mientras el Reglamento europeo de IA clasifica como “alto riesgo” usos en educación y formación (admisión, evaluación, asignación), lo que eleva exigencias para cualquier automatización que afecte decisiones vitales del alumnado. [3]

Introducción:

La orientación educativa y profesional vive una paradoja: nunca hubo tanta información (itinerarios, FP, universidad, microcredenciales, tendencias del empleo), y sin embargo la capacidad humana para convertir información en decisión —en acompañamiento— sigue siendo el cuello de botella. En España, esa tensión se agrava por carencias estructurales reconocidas desde el propio sector: la orientación aparece como menos desarrollada que en otros países europeos, con déficits de recursos y de enfoque sistémico. [4]

En ese escenario, la IA generativa se ha colado por dos puertas a la vez. Por arriba, como política pública y promesa de desburocratización; por abajo, como herramienta cotidiana (ChatGPT u otras) que profesorado y alumnado utilizan ya con normalidad. El resultado es una adopción rápida… y a menudo desordenada. [5]

Enfoque editorial (tres ángulos complementarios) —que organizan el reportaje y, a la vez, reflejan dónde se decide su impacto real—: - Institucionalización y escala: qué está ocurriendo en política pública, datos de adopción y “efecto arrastre” en centros. [6]
- Práctica orientadora y evidencia: qué tareas mejora de verdad, qué no debe hacer, y qué aprendizajes dejan los casos y estudios disponibles.
[7]
- Gobernanza, riesgos y derechos: privacidad, sesgos, transparencia y el nuevo marco regulatorio europeo y español que condicionará herramientas y decisiones.
[8]

Este reportaje se centra en España y en el periodo comprendido entre finales de marzo de 2025 y finales de marzo de 2026, priorizando fuentes profesionales en español, organismos oficiales, papers y documentación técnica pública. [9]

Del uso informal al “chatbot oficial”: la IA se institucionaliza y cambia el terreno de juego:

En marzo de 2026, la noticia que marca un punto de inflexión no viene de una startup ni de un centro innovador, sino del Estado: el Gobierno ha lanzado el Programa de Inteligencia Artificial para la Educación, dotado con 140 millones de euros, con un “chatbot oficial” para la enseñanza pública orientado a generar primeras versiones de evaluaciones, informes y documentación administrativa, además de apoyo a tareas docentes. La lógica explícita es liberar tiempo (especialmente burocrático) para devolverlo a la enseñanza… y, por extensión, al acompañamiento. [10]

Para orientación educativa y profesional, el subtexto es relevante: si el sistema coloca IA en el circuito de evaluación e informes, se reducirán algunas tareas colindantes con orientación (adaptaciones, informes individualizados, comunicación con familias), pero también aparece un riesgo de normalización de la automatización en decisiones sensibles. El propio debate público ya incorpora alertas sobre sesgos y necesidad de información a representantes de trabajadores cuando un algoritmo afecta condiciones de trabajo o procesos de alto impacto. [11]

El “momento IA” no es una burbuja aislada del resto de la sociedad: los datos oficiales muestran que el uso de IA se está extendiendo de forma masiva. El INE estimó que el 37,9% de la población de 16 a 74 años utilizó herramientas de IA generativa en los tres últimos meses (dato 2025), y que el 21,1% de las empresas de diez o más empleados usaba IA (primer trimestre de 2025). Esto importa a la orientación porque el alumnado llega ya con prácticas y expectativas, y porque el mercado laboral receptor incorpora IA a procesos de selección y gestión. [12]

En paralelo a la IA “comprada fuera”, España ha reforzado en 2026 un relato de IA pública y auditables. El Ministerio para la Transformación Digital y de la Función Pública ha impulsado el “Desafío ALIA” (con participación de más de mil personas) para alinear la familia pública de modelos lingüísticos y mejorar su comportamiento ante peticiones problemáticas, con énfasis en lenguaje inclusivo y reducción de estereotipos. Más allá del detalle técnico, el mensaje para orientación es político y práctico: si la administración adopta IA, tenderá a favorecer infraestructuras con mejor trazabilidad y control (al menos en teoría), lo que puede facilitar despliegues en educación con menor fricción jurídica que las herramientas generalistas. [13]

Una consecuencia poco visible, pero decisiva, es que la institucionalización “mueve” el debate desde el “¿lo uso o no?” hacia el “¿bajo qué condiciones y con qué controles?”. En orientación, esto desplaza el foco a protocolos: qué datos se introducen, quién valida los borradores, cómo se explica al alumnado el papel de la IA y cómo se evita que una recomendación automática sustituya la deliberación educativa. [6]

Para orientar en 2026, el reto ya no es únicamente aprender a redactar prompts, sino navegar un sistema donde la IA está entrando en: (a) la trastienda administrativa (informes, evaluaciones), (b) la clase (tareas y aprendizaje), y (c) el entorno laboral (empresas y selección). La orientación queda en medio: traduciendo decisiones educativas a trayectorias vitales y profesionales, y haciendo de “puente” entre información, persona y oportunidades reales. [14]

Cronología (hitos institucionales y de adopción social en España, últimos doce meses), elaborada a partir de fuentes oficiales y prensa profesional: [15]

timeline
    title Hitos de adopción y gobernanza de IA con impacto en educación y orientación (España)
    2025-11-20 : INE publica que 37,9% de la población (16-74) usó IA generativa en los últimos 3 meses
    2025-10-22 : INE publica que 21,1% de empresas (10+ empleados) usa IA (1T 2025)
    2026-03-04 : El Gobierno impulsa el 2º Desafío ALIA (más de 1.000 participantes) para alinear IA pública
    2026-03-25 : Programa de IA para la Educación (140 M€) con “chatbot oficial” para evaluaciones e informes
    2026-03-26 : Confirmación en prensa profesional del programa de IA educativa y su foco en burocracia

Sources: 1. El País[16]. “Los profesores de la enseñanza pública harán con una IA oficial la primera evaluación de los alumnos”. El País, 25/03/2026. URL: https://elpais.com/educacion/2026-03-25/los-profesores-de-la-ensenanza-publica-haran-con-una-ia-oficial-la-primera-evaluacion-de-los-alumnos.html. [17]
2. Magisnet
[18] (Agencia EFE[19]). “Educación crea una IA específica para quitar burocracia a los docentes y apoyar sus tareas”. Magisnet, 26/03/2026. URL: https://www.magisnet.com/2026/03/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/. [20]
3. Instituto Nacional de Estadística
[21]. “Encuesta sobre Equipamiento y Uso de Tecnologías de la Información y Comunicación en los Hogares (TICH). Año 2025 (nota de prensa)”. INE, 20/11/2025. URL: https://www.ine.es/dyngs/Prensa/TICH2025.htm. [22]
4. Instituto Nacional de Estadística
[21]. “Encuesta sobre el uso de TIC y del comercio electrónico en las empresas. Año 2024 – Primer trimestre 2025 (datos definitivos)”. INE, 22/10/2025. URL: https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm. [23]
5. Ministerio para la Transformación Digital y de la Función Pública
[24]. “Más de 1.000 personas colaboran en el desafío para alinear la inteligencia artificial pública ALIA con valores éticos y libre de sesgos”. Portal MTDFP (Notas de prensa), 04/03/2026. URL: https://digital.gob.es/comunicacion/notas-prensa/secretaria-digitalizacion-e-inteligencia-artificial/2026/03/mas-de-1-000-personas-colaboran-en-el-desafio-para-alinear-la-in. [25]

La IA en orientación: productividad real, límites humanos y una evidencia española que “sí, pero”:

La conversación pública sobre IA suele oscilar entre el hype (“lo resolverá todo”) y el rechazo (“deshumaniza”). En orientación, esa polarización es especialmente peligrosa porque el daño potencial es alto: un mal consejo puede cristalizar desigualdades, reforzar estereotipos y empujar decisiones tempranas. Por eso importa un enfoque más sobrio: ¿qué tareas mejora, cuáles empeora y cuáles no debería tocar? [26]

La evidencia española más directa en el periodo analizado llega desde la universidad. Un estudio publicado en la Revista de Educación evaluó la calidad y fiabilidad de respuestas de Copilot y ChatGPT ante preguntas reales (acceso, gestión, dificultad y empleabilidad) para universidades públicas. La conclusión central no es “la IA orienta”, sino algo más matizado: los modelos pueden ser útiles como servicio informativo de primera capa, pero su eficacia depende de la calidad y accesibilidad de la información institucional; cuando la web es confusa o incompleta, la IA no “arregla” el problema, lo amplifica o lo disimula con respuestas plausibles.

Ese matiz conecta con una idea clave para orientadores en activo: la IA es especialmente fuerte en estructurar (resumir normativa interna, comparar itinerarios, proponer preguntas), y especialmente débil en comprender contexto humano (familia, duelo, presión social, identidad, expectativas). En la literatura profesional española reciente, esa frontera aparece de forma explícita: la IA puede proponer comparativas y tendencias, incluso itinerarios “personalizados” si el propio alumno introduce datos, pero “informar no es acompañar”; la herramienta no conoce el ecosistema emocional ni social del estudiante. [27]

En paralelo, el campo está probando “personajes” y experiencias públicas de orientación con IA. Un ejemplo mediático es la campaña universitaria que presenta a “Sofía” como orientadora universitaria generada por IA, pensada para hablar el lenguaje y los canales de la generación joven. Aunque no demuestra eficacia educativa, sí muestra una tendencia: la orientación se “plataformiza” y adopta formatos conversacionales que compiten con el orientador humano por la atención del alumnado. La cuestión es si esa competencia se convierte en cooperación (triage y derivación) o en sustitución (asistencia barata sin garantías). [28]

En Formación Profesional, la investigación aplicada y los informes sectoriales describen un patrón similar: uso generalizado de IA generativa (principalmente ChatGPT) para tareas de preparación de materiales, pero cautela (o rechazo) ante automatizar tutoría y orientación. Un informe de Ayuda en Acción[29] identifica que más del 60% del profesorado de FP encuestado ha utilizado herramientas como ChatGPT; al mismo tiempo, el propio informe subraya que el uso en funciones de orientación o acompañamiento se observa “con mucha cautela” por el riesgo de sustituir criterio experto por algoritmos opacos y sesgados que podrían estigmatizar al alumnado vulnerable. [30]

La SEPE[31], desde su revista del Observatorio, formula el límite con claridad: la IA puede ayudar en muchos aspectos y aliviar tareas burocráticas, pero no debe reemplazar el acompañamiento humano en tutoría y orientación profesional; automatizarlo puede aumentar sesgos y desigualdades. Esta postura, aunque prudente, no es antitecnológica: propone IA para sistematizar información local y recursos, con interpretación por personal experto. [32]

A partir de estas fuentes, se puede describir una “matriz de valor” para el orientador en activo (no como receta universal, sino como guía operativa):

Dónde suele aportar más (bajo a medio riesgo): redactar borradores de comunicaciones, preparar guiones de entrevista, generar bancos de preguntas para exploración vocacional, convertir información dispersa (ciclos, salidas, requisitos) en comparativas legibles, diseñar materiales para tutoría, crear rúbricas y checks de itinerarios, y analizar tendencias de empleabilidad a partir de fuentes verificables. [33]

Dónde la prudencia debe ser máxima (alto riesgo): recomendar itinerarios “óptimos” sin supervisión, etiquetar perfiles (“apto/no apto”), inferir motivaciones o estados emocionales, automatizar decisiones que impacten acceso, evaluación y derivación, o trabajar con datos personales de menores en plataformas no autorizadas por el centro/administración. [34]

Finalmente, un aspecto que a menudo se olvida: la adopción real requiere formación y comunidad profesional. En España se observa una respuesta formativa explícita en cursos orientados a la competencia digital del orientador y a las posibilidades de la IA en su práctica diaria, lo que sugiere que la IA ya se entiende como parte del “oficio”, no como moda pasajera. [35]

Sources: 1. Educaweb[36]. “IA generativa y orientación académica: informar no es acompañar”. Educaweb, 26/02/2026. URL: https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/. [27]
2. Estela Mayor-Alonso; Javier Vidal; Agustín Rodríguez-Esteban (Universidad de León
[37]). “Evaluación de la calidad de modelos de IA generativa como aplicaciones de orientación universitaria”. Revista de Educación[38], nº 411, enero–marzo 2026. URL: https://recyt.fecyt.es/index.php/Redu/article/view/108970.
3. Ayuda en Acción
[29]. “La Inteligencia Artificial en la Formación Profesional (Informe)”. Ayuda en Acción, 07/2025. URL: https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf. [39]
4. SEPE
[31]. “La Inteligencia Artificial Generativa en la Formación Profesional”. Cuadernos del Mercado de Trabajo (Observatorio SEPE), (fecha en página del artículo), 2025–2026. URL: https://www.sepe.es/HomeSepe/eu/que-es-observatorio/Hipatia/cuadernos-mercado-trabajo/revista-cuadernos-mercado-trabajo/detalle-articulo.html?detail=%2Frevista%2FInteligencia-Artificial%2Flainteligenciaartificialgenerativaenlaformacionprofesional. [32]
5. Magisnet
[18]. “Sofía, la primera orientadora universitaria completamente generada por IA en España”. Magisnet, 01/07/2025. URL: https://www.magisnet.com/2025/07/sofia-la-primera-orientadora-universitaria-completamente-generada-por-ia-en-espana/. [28]
6. Universidad de Burgos
[40]. “Orientación Educativa y Propuestas Innovadoras. III edición – UBUAbierta” (curso). Universidad de Burgos, calendario 18/02/2026–25/03/2026. URL: https://www.ubu.es/te-interesa/orientacion-educativa-y-propuestas-innovadoras-iii-edicion-ubuabierta. [41]
7. COPOE
[42]. “Seminario: Inteligencia Artificial en Orientación Educativa y Profesional” (anuncio). COPOE, 28/03/2025. URL: https://copoe.org/agenda/seminario-inteligencia-artificial-en-orientacion-educativa-y-profesional/. [43]

Riesgos, oportunidades y reglas del juego: privacidad, sesgos y el nuevo marco de gobernanza:

Si el valor inmediato de la IA en orientación es la productividad, su condición de posibilidad es la confianza. Y en educación, la confianza se construye con gobernanza: protección de datos (menores), transparencia (qué hace el sistema), rendición de cuentas (quién responde) y límites (qué no se automatiza). En marzo de 2026, las Autoridades de protección de datos españolas han publicado un decálogo de principios básicos para contratación y uso de plataformas educativas digitales, señalando dos ideas que afectan directamente a cualquier uso de IA en centros: (a) los principales afectados son menores y el “interés superior del menor” exige escrutinio reforzado; (b) el uso de la plataforma no es voluntario para alumnado y familias, lo que incrementa la obligación de diligencia del responsable. [44]

El documento también diferencia dimensiones que suelen pasarse por alto cuando se incorpora IA en plataformas: servicios “básicos” vinculados a la función educativa frente a servicios adicionales (buscadores, vídeo, herramientas de IA) que pueden estar bajo condiciones contractuales distintas e incluso situar al proveedor como responsable para fines propios; además distingue datos aportados por usuarios (documentos, calificaciones, comunicaciones) frente a datos generados automáticamente (IPs, metadatos, registros), cuyo tratamiento puede escapar al control efectivo del responsable. En orientación, esto se traduce en una regla práctica: la decisión no es solo “qué herramienta uso”, sino “en qué ecosistema contractual y técnico vive esa herramienta”. [45]

En enero de 2026, la AEPD publicó además un decálogo de recomendaciones para proteger la privacidad al usar herramientas de IA (“Cuidado con lo que le confías”). Varias recomendaciones son directamente accionables por orientadores: no introducir datos personales (nombre, dirección, DNI, imágenes), evitar información sensible, respetar privacidad de terceros (especialmente menores), no incluir información profesional confidencial y mantener postura crítica ante respuestas plausibles pero erróneas. Este decálogo encaja con la realidad diaria de orientación: trabajar con historias personales. Por tanto, si la herramienta no está “institucionalizada” (DPA, controles, autorización del centro), el estándar prudente es usar casos ficticios y datos anonimizados. [46]

La segunda capa de gobernanza llega desde Europa. El Reglamento europeo de IA (AI Act) adopta un enfoque basado en riesgos y clasifica como alto riesgo sistemas destinados a determinar acceso/admisión, evaluar resultados del aprendizaje o asignar personas en educación y formación profesional. Para orientación, el mensaje no es abstracto: cualquier IA que se acerque a “decidir” (admisión, nivel adecuado, evaluación que guía el proceso) entra en un territorio regulatorio más exigente. Incluso cuando un centro use IA para “apoyar” decisiones, el diseño del proceso deberá preservar supervisión humana, documentación, trazabilidad y medidas contra sesgos. [47]

Además, la Comisión Europea ha actualizado en 2026 sus directrices éticas para educadores sobre el uso de IA y datos, justificándolo por el aumento significativo de uso de IA en educación, la llegada de regulación (AI Act) y la necesidad de alfabetización crítica y ética. Para orientación, estas directrices son relevantes porque desplazan la pregunta desde “¿me ayuda?” hacia “¿es justo, explicable y compatible con derechos?”. [48]

Con este marco, la elección de herramientas deja de ser un asunto de preferencias y pasa a ser una decisión de riesgo y cumplimiento. A continuación se propone una tabla comparativa práctica (no exhaustiva) para orientadores en activo. Los costes son orientativos y las garantías dependen del plan y del contexto de contratación (cuenta personal vs. educativa/organizativa). [49]

Herramienta (familia)

Funcionalidad principal

Casos de uso típicos en orientación

Evidencia de eficacia (últimos 12 meses)

Coste aproximado (marzo 2026)

Privacidad / compatibilidad RGPD (orientación en centros)

ChatGPT (OpenAI[50])

Asistente generativo multipropósito (redacción, síntesis, ideación)

Borradores de informes (sin datos personales), guiones de entrevista, materiales de tutoría, comparativas de itinerarios a partir de fuentes aportadas

Estudio español en orientación universitaria sugiere potencial, condicionado por calidad de fuentes (universidades)

Desde 8 USD/mes (Go) y 20 USD/mes (Plus) en precios globales publicados por OpenAI; planes Business/Enterprise varían

Riesgo alto con cuentas personales si se introducen datos de menores; mejor con planes/entornos organizativos donde “no se entrena por defecto” y con controles. Requiere políticas internas y anonimización estricta

Microsoft 365 Copilot (Microsoft[51])

IA integrada en ecosistema M365 (Word, Outlook, Teams) con datos del tenant

Resúmenes de reuniones de orientación (con controles), borradores de comunicaciones, plantillas de informes, análisis de documentos internos

Evidencia indirecta (productividad) y marco de protección empresarial; no específica de orientación escolar

21,84 € por usuario/mes (Copilot Business, compromiso mensual; sin IVA)

Más favorable en organizaciones por “enterprise data protection” y no entrenamiento de modelos fundacionales con prompts/respuestas; sigue exigiendo control de permisos y DPA

Gemini (Google[52])

Asistente generativo y herramientas (Deep Research, NotebookLM) integrables con apps Google

Síntesis de documentos, preparación de sesiones, creación de recursos; NotebookLM para trabajar sobre documentos aportados

Evidencia indirecta; directrices europeas 2026 refuerzan enfoque ético y alfabetización crítica

En España: 7,99 €/mes (AI Plus) y 21,99 €/mes (AI Pro)

Variable: depende de configuración y del tipo de cuenta (personal vs. Workspace/Education). Requiere revisar avisos de privacidad específicos y evitar datos personales salvo marco contractual adecuado

Perplexity (Perplexity AI[53])

“Answer engine” con búsquedas y citas; útil para verificación

Verificar normativa, reunir fuentes laborales/educativas, construir dossiers con citas

Ventaja principal: trazabilidad (respuestas citadas). No evidencia específica de orientación escolar en España

Enterprise (referencia): 20 USD/mes (plan individual Pro aparece en su oferta; Enterprise con escalado)

Útil para verificación por citas; privacidad depende del plan. En entornos educativos, mejor usar configuración/planes con compromisos de datos y evitar datos personales

Recomendaciones prácticas (orientadores en activo) que se desprenden del marco 2026: 1) Separar “IA para escribir” de “IA para decidir”. Lo primero puede ser de bajo riesgo si se anonimizan datos; lo segundo se acerca a “alto riesgo” y exige controles reforzados y, en la práctica, mucha más cautela. [54]
2) Adoptar una regla de oro de datos: si no está en una herramienta aprobada por el centro/administración (o no hay marco contractual claro), no entran datos personales. Trabajar con casos ficticios y plantillas.
[55]
3) Diseñar “doble validación” en productos orientadores: la IA produce el borrador; el orientador valida con fuentes oficiales y contexto del alumno; y se documenta el uso (qué hizo la IA y qué decidió el profesional). La formación docente española ya está incorporando explícitamente modelos de documentación y declaración de uso.
[56]
4) Construir alfabetización crítica del alumnado: si el 37,9% de la población ya usa IA generativa, la orientación debe incluir competencias para evaluar calidad, sesgos y límites de estas herramientas en decisiones académicas y laborales.
[57]

El riesgo más serio en orientación no es que la IA “se equivoque” (eso se puede detectar con procedimientos), sino que se convierta en una autoridad silenciosa: recomendaciones con apariencia de objetividad que el alumno acepta por fatiga informativa, o que el sistema usa para justificar recortes (“si el chatbot lo hace…”). Por eso la oportunidad principal es también cultural: usar IA para liberar tiempo y elevar el acompañamiento humano, no para abaratarlo. [58]

Sources: 1. Agencia Española de Protección de Datos[59]. “Las Autoridades de Protección de Datos publican un decálogo de principios básicos para la contratación y el uso de plataformas educativas digitales”. AEPD (Nota de prensa), 23/03/2026. URL: https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas. [60]
2. Agencia Española de Protección de Datos
[59]; APDCAT; AVPD; CTPDA. “Principios básicos para la contratación y uso de plataformas educativas digitales por las administraciones educativas y centros docentes (Guía publicada en marzo 2026)”. AEPD (PDF), 03/2026. URL: https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf. [61]
3. Agencia Española de Protección de Datos
[59]. “La AEPD publica un decálogo con recomendaciones para proteger la privacidad al usar herramientas de IA”. AEPD (Nota de prensa), 27/01/2026. URL: https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia. [62]
4. Agencia Española de Protección de Datos
[59]. “Recomendaciones para proteger la privacidad al usar herramientas de IA (‘Cuidado con lo que le confías’)”. AEPD (PDF), 2026. URL: https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf. [63]
5. Agencia Española de Supervisión de Inteligencia Artificial
[64]. “Sistemas de alto riesgo (RIA)”. AESIA, 2025–2026. URL: https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo. [65]
6. “Anexo III: Sistemas de IA de alto riesgo (Educación y formación profesional)”. ArtificialIntelligenceAct.eu (texto consolidado y extractos del AI Act), s. f. URL:
https://artificialintelligenceact.eu/es/annex/3/. [66]
7. European Commission
[67]. “Guidelines on the ethical use of artificial intelligence and data in teaching and learning for educators” (actualización 2026). European Commission – Education, 05/03/2026. URL: https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence. [48]
8. OpenAI
[50]. “Business data privacy, security, and compliance” (no training by default en planes Business/Enterprise/Edu y API). OpenAI, (actualizado en el periodo reciente). URL: https://openai.com/business-data/. [68]
9. OpenAI
[50]. “What if I want to keep my history on but disable model training?” (controles para desactivar entrenamiento en planes personales). OpenAI Help Center, (actualizado en el periodo reciente). URL: https://help.openai.com/en/articles/8983130-what-if-i-want-to-keep-my-history-on-but-disable-model-training. [69]
10. Microsoft
[51]. “Enterprise data protection in Microsoft 365 Copilot and Microsoft 365 Copilot Chat”. Microsoft Learn, 08/12/2025. URL: https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection. [70]
11. Microsoft
[51]. “Data, Privacy, and Security for Microsoft 365 Copilot”. Microsoft Learn, 09/03/2026. URL: https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy. [71]
12. Microsoft
[51]. “Microsoft 365 Copilot: Planes y precios (España)”. Microsoft, (consultado en marzo 2026). URL: https://www.microsoft.com/es-es/microsoft-365-copilot/pricing. [72]
13. Google
[52]. “Google AI Pro y Ultra – Suscripciones (España)”. Gemini (Google), (consultado en marzo 2026). URL: https://gemini.google/es/subscriptions/?hl=es. [73]
14. Google
[52]. “Gemini Apps Privacy Notice” (aviso de privacidad). Google Support, actualizado 27/03/2026. URL: https://support.google.com/gemini/answer/13594961?hl=en. [74]
15. Perplexity AI
[53]. “Perplexity Enterprise Pricing”. Perplexity, (consultado en 2026). URL: https://www.perplexity.ai/enterprise/pricing. [75]

Conclusion:

En España, la IA ya no es un “extra” tecnológico: en el último año se ha consolidado como fenómeno social (uso masivo), económico (adopción empresarial) e institucional (programa educativo con inversión pública y despliegue de IA oficial). Para orientación educativa y profesional, este movimiento puede ser una oportunidad histórica si se usa para reducir burocracia y aumentar el tiempo de acompañamiento, no para reemplazarlo. [14]

La evidencia disponible sugiere una conclusión operativa: la IA sirve para informar, organizar y redactar con eficiencia, pero orientar —en sentido pleno— requiere contexto, ética y vínculo. Los casos analizados en FP y universidad convergen en la misma frontera: apoyo sí; sustitución no, especialmente en tareas que pueden amplificar sesgos y desigualdades. [76]

La variable decisiva para los próximos meses será la gobernanza: datos de menores, contratos con plataformas, transparencia y cumplimiento del enfoque de riesgo del AI Act. En 2026, la AEPD y la Comisión Europea han reforzado el mensaje: sin privacidad, sin límites claros y sin alfabetización crítica, la IA no moderniza la orientación; la precariza. Con controles, documentación y supervisión profesional, la IA puede convertirse en la infraestructura silenciosa que libere a los orientadores para lo que ninguna máquina hace: comprender, sostener y abrir posibilidades reales en vidas concretas. [77]


[1] [5] [6] [9] [10] [17] [36] https://elpais.com/educacion/2026-03-25/los-profesores-de-la-ensenanza-publica-haran-con-una-ia-oficial-la-primera-evaluacion-de-los-alumnos.html

https://elpais.com/educacion/2026-03-25/los-profesores-de-la-ensenanza-publica-haran-con-una-ia-oficial-la-primera-evaluacion-de-los-alumnos.html

[2] [7] [18] [26] [27] [33] [40] [42] https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/

https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/

[3] [44] [52] [60] https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas

https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas

[4] [29] https://www.educaweb.com/noticia/2025/11/18/orientacion-academica-profesional-alumnado-principales-carencias-como-afrontarlas-21975/

https://www.educaweb.com/noticia/2025/11/18/orientacion-academica-profesional-alumnado-principales-carencias-como-afrontarlas-21975/

[8] [24] [45] [61] [64] [77] https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf

https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf

[11] [53] https://www.infobae.com/espana/agencias/2026/03/25/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/

https://www.infobae.com/espana/agencias/2026/03/25/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/

[12] [14] [15] [19] [22] [57] https://www.ine.es/dyngs/Prensa/TICH2025.htm

https://www.ine.es/dyngs/Prensa/TICH2025.htm

[13] [25] https://digital.gob.es/comunicacion/notas-prensa/secretaria-digitalizacion-e-inteligencia-artificial/2026/03/mas-de-1-000-personas-colaboran-en-el-desafio-para-alinear-la-in

https://digital.gob.es/comunicacion/notas-prensa/secretaria-digitalizacion-e-inteligencia-artificial/2026/03/mas-de-1-000-personas-colaboran-en-el-desafio-para-alinear-la-in

[16] [30] [34] [39] https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf

https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf

[20] https://www.magisnet.com/2026/03/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/

https://www.magisnet.com/2026/03/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/

[21] [69] https://help.openai.com/en/articles/8983130-what-if-i-want-to-keep-my-history-on-but-disable-model-training

https://help.openai.com/en/articles/8983130-what-if-i-want-to-keep-my-history-on-but-disable-model-training

[23] https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm

https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm

[28] Sofía, la primera orientadora universitaria completamente generada por IA en España - Magisnet

https://www.magisnet.com/2025/07/sofia-la-primera-orientadora-universitaria-completamente-generada-por-ia-en-espana/

[31] [66] https://artificialintelligenceact.eu/es/annex/3/

https://artificialintelligenceact.eu/es/annex/3/

[32] [58] [76] La Inteligencia Artificial Generativa en la Formación Profesional

https://www.sepe.es/HomeSepe/eu/que-es-observatorio/Hipatia/cuadernos-mercado-trabajo/revista-cuadernos-mercado-trabajo/detalle-articulo.html?detail=%2Frevista%2FInteligencia-Artificial%2Flainteligenciaartificialgenerativaenlaformacionprofesional

[35] [41] Orientación Educativa y Propuestas Innovadoras. III edición - UBUAbierta - | Universidad de Burgos

https://www.ubu.es/te-interesa/orientacion-educativa-y-propuestas-innovadoras-iii-edicion-ubuabierta

[37] [47] [54] https://aesia.digital.gob.es/en/presentria-sistemas-de-alto-riesgo

https://aesia.digital.gob.es/en/presentria-sistemas-de-alto-riesgo

[38] [48] https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence

https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence

[43] Utilización de la IA en Orientación Educativa y Profesional

https://www.copoe.org/seminario-permanente-ia?utm_source=chatgpt.com

[46] [50] [62] https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia

https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia

[49] [72] https://www.microsoft.com/es-es/microsoft-365-copilot/pricing

https://www.microsoft.com/es-es/microsoft-365-copilot/pricing

[51] [75] https://www.perplexity.ai/enterprise/pricing

https://www.perplexity.ai/enterprise/pricing

[55] [63] https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf

https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf

[56] [67] https://intef.es/wp-content/uploads/2025/06/Orientaciones-para-la-integracion-de-la-IA-en-la-formacion-docente-2-1.pdf

https://intef.es/wp-content/uploads/2025/06/Orientaciones-para-la-integracion-de-la-IA-en-la-formacion-docente-2-1.pdf

[59] [74] https://support.google.com/gemini/answer/13594961?hl=en

https://support.google.com/gemini/answer/13594961?hl=en

[65] https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo

https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo

[68] https://openai.com/business-data/

https://openai.com/business-data/

[70] https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection

https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection

[71] https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy

https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy

[73] https://gemini.google/subscriptions/?hl=es

https://gemini.google/subscriptions/?hl=es


No hay comentarios:

Publicar un comentario

Tus comentarios nos ayudan a mejorar.

Entradas populares