La IA entra en el despacho del orientador educativo y profesional en España
Sumario:
·
Key Insight 1: En los últimos doce meses, la IA ha pasado de ser un uso individual y
desigual a convertirse en agenda institucional: el Gobierno ha anunciado
un programa de 140 millones de euros con “chatbot oficial” para tareas de
evaluación e informes, y en paralelo España impulsa una familia de modelos
públicos (ALIA) con narrativa de soberanía y uso en administraciones. [1]
·
Key Insight 2: Para la orientación, el mayor valor inmediato no está en “recomendar
futuros” sino en reducir fricción: sistematizar información, preparar
entrevistas, redactar borradores de documentos y personalizar recursos. La
evidencia española más directa (universidad) apunta a potencial real, pero muy
dependiente de la calidad de las fuentes y con fallos típicos de “alucinación”
y confusión en trámites. [2]
·
Key Insight 3: El impacto se decidirá en la gobernanza: protección de datos
(menores y plataformas “no voluntarias”), transparencia, sesgos y límites de
uso. En 2026 la AEPD ha publicado dos decálogos (plataformas educativas y
privacidad en IA), mientras el Reglamento europeo de IA clasifica como “alto
riesgo” usos en educación y formación (admisión, evaluación, asignación), lo
que eleva exigencias para cualquier automatización que afecte decisiones
vitales del alumnado. [3]
Introducción:
La orientación educativa y profesional vive una paradoja: nunca hubo
tanta información (itinerarios, FP, universidad, microcredenciales, tendencias
del empleo), y sin embargo la capacidad humana para convertir información en
decisión —en acompañamiento— sigue siendo el cuello de botella. En España,
esa tensión se agrava por carencias estructurales reconocidas desde el propio
sector: la orientación aparece como menos desarrollada que en otros países
europeos, con déficits de recursos y de enfoque sistémico. [4]
En ese escenario, la IA generativa se ha colado por dos puertas a la
vez. Por arriba, como política pública y promesa de desburocratización; por
abajo, como herramienta cotidiana (ChatGPT u otras) que profesorado y alumnado
utilizan ya con normalidad. El resultado es una adopción rápida… y a menudo
desordenada. [5]
Enfoque editorial (tres ángulos complementarios) —que organizan el reportaje y, a la vez, reflejan dónde se decide su
impacto real—: - Institucionalización y escala: qué está ocurriendo en
política pública, datos de adopción y “efecto arrastre” en centros. [6]
- Práctica orientadora y evidencia: qué tareas mejora de verdad, qué no
debe hacer, y qué aprendizajes dejan los casos y estudios disponibles. [7]
- Gobernanza, riesgos y derechos: privacidad, sesgos, transparencia y el
nuevo marco regulatorio europeo y español que condicionará herramientas y
decisiones. [8]
Este reportaje se centra en España y en el periodo comprendido entre
finales de marzo de 2025 y finales de marzo de 2026, priorizando fuentes
profesionales en español, organismos oficiales, papers y documentación técnica
pública. [9]
Del uso informal al “chatbot oficial”: la IA se institucionaliza y
cambia el terreno de juego:
En marzo de 2026, la noticia que marca un punto de inflexión no viene
de una startup ni de un centro innovador, sino del Estado: el Gobierno ha
lanzado el Programa de Inteligencia Artificial para la Educación, dotado
con 140 millones de euros, con un “chatbot oficial” para la enseñanza
pública orientado a generar primeras versiones de evaluaciones, informes
y documentación administrativa, además de apoyo a tareas docentes. La lógica
explícita es liberar tiempo (especialmente burocrático) para devolverlo a la
enseñanza… y, por extensión, al acompañamiento. [10]
Para orientación educativa y profesional, el subtexto es relevante: si
el sistema coloca IA en el circuito de evaluación e informes, se reducirán
algunas tareas colindantes con orientación (adaptaciones, informes
individualizados, comunicación con familias), pero también aparece un riesgo de
normalización de la automatización en decisiones sensibles. El propio
debate público ya incorpora alertas sobre sesgos y necesidad de información a
representantes de trabajadores cuando un algoritmo afecta condiciones de
trabajo o procesos de alto impacto. [11]
El “momento IA” no es una burbuja aislada del resto de la sociedad: los
datos oficiales muestran que el uso de IA se está extendiendo de forma masiva.
El INE estimó que el 37,9% de la población de 16 a 74 años utilizó
herramientas de IA generativa en los tres últimos meses (dato 2025), y
que el 21,1% de las empresas de diez o más empleados usaba IA (primer
trimestre de 2025). Esto importa a la orientación porque el alumnado llega ya
con prácticas y expectativas, y porque el mercado laboral receptor incorpora IA
a procesos de selección y gestión. [12]
En paralelo a la IA “comprada fuera”, España ha reforzado en 2026 un
relato de IA pública y auditables. El Ministerio para la Transformación
Digital y de la Función Pública ha impulsado el “Desafío ALIA” (con
participación de más de mil personas) para alinear la familia pública de
modelos lingüísticos y mejorar su comportamiento ante peticiones problemáticas,
con énfasis en lenguaje inclusivo y reducción de estereotipos. Más allá del
detalle técnico, el mensaje para orientación es político y práctico: si la
administración adopta IA, tenderá a favorecer infraestructuras con mejor
trazabilidad y control (al menos en teoría), lo que puede facilitar despliegues
en educación con menor fricción jurídica que las herramientas generalistas. [13]
Una consecuencia poco visible, pero decisiva, es que la
institucionalización “mueve” el debate desde el “¿lo uso o no?” hacia el “¿bajo
qué condiciones y con qué controles?”. En orientación, esto desplaza el foco a
protocolos: qué datos se introducen, quién valida los borradores, cómo se
explica al alumnado el papel de la IA y cómo se evita que una recomendación
automática sustituya la deliberación educativa. [6]
Para orientar en 2026, el reto ya no es únicamente aprender a redactar
prompts, sino navegar un sistema donde la IA está entrando en: (a) la trastienda
administrativa (informes, evaluaciones), (b) la clase (tareas y
aprendizaje), y (c) el entorno laboral (empresas y selección). La
orientación queda en medio: traduciendo decisiones educativas a trayectorias
vitales y profesionales, y haciendo de “puente” entre información, persona y
oportunidades reales. [14]
Cronología (hitos institucionales y de adopción social en España,
últimos doce meses), elaborada a partir de fuentes oficiales y prensa
profesional: [15]
timeline
title Hitos de adopción y gobernanza de IA
con impacto en educación y orientación (España)
2025-11-20 : INE publica que 37,9% de la
población (16-74) usó IA generativa en los últimos 3 meses
2025-10-22 : INE publica que 21,1% de
empresas (10+ empleados) usa IA (1T 2025)
2026-03-04 : El Gobierno impulsa el 2º
Desafío ALIA (más de 1.000 participantes) para alinear IA pública
2026-03-25 : Programa de IA para la
Educación (140 M€) con “chatbot oficial” para evaluaciones e informes
2026-03-26 : Confirmación en prensa profesional del programa de IA
educativa y su foco en burocracia
Sources: 1. El País[16]. “Los profesores de la enseñanza pública harán con una IA oficial la
primera evaluación de los alumnos”. El País, 25/03/2026. URL: https://elpais.com/educacion/2026-03-25/los-profesores-de-la-ensenanza-publica-haran-con-una-ia-oficial-la-primera-evaluacion-de-los-alumnos.html. [17]
2. Magisnet[18] (Agencia EFE[19]). “Educación crea una IA específica para quitar burocracia a los
docentes y apoyar sus tareas”. Magisnet, 26/03/2026. URL: https://www.magisnet.com/2026/03/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/. [20]
3. Instituto Nacional de Estadística[21]. “Encuesta sobre Equipamiento y Uso de Tecnologías de la Información y
Comunicación en los Hogares (TICH). Año 2025 (nota de prensa)”. INE,
20/11/2025. URL: https://www.ine.es/dyngs/Prensa/TICH2025.htm. [22]
4. Instituto Nacional de Estadística[21]. “Encuesta sobre el uso de TIC y del comercio electrónico en las
empresas. Año 2024 – Primer trimestre 2025 (datos definitivos)”. INE,
22/10/2025. URL: https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm. [23]
5. Ministerio para la Transformación Digital y de la Función Pública[24]. “Más de 1.000 personas colaboran en el desafío para alinear la
inteligencia artificial pública ALIA con valores éticos y libre de sesgos”. Portal
MTDFP (Notas de prensa), 04/03/2026. URL: https://digital.gob.es/comunicacion/notas-prensa/secretaria-digitalizacion-e-inteligencia-artificial/2026/03/mas-de-1-000-personas-colaboran-en-el-desafio-para-alinear-la-in. [25]
La IA en orientación: productividad real, límites humanos y una
evidencia española que “sí, pero”:
La conversación pública sobre IA suele oscilar entre el hype (“lo
resolverá todo”) y el rechazo (“deshumaniza”). En orientación, esa polarización
es especialmente peligrosa porque el daño potencial es alto: un mal consejo
puede cristalizar desigualdades, reforzar estereotipos y empujar decisiones
tempranas. Por eso importa un enfoque más sobrio: ¿qué tareas mejora, cuáles
empeora y cuáles no debería tocar? [26]
La evidencia española más directa en el periodo analizado llega desde
la universidad. Un estudio publicado en la Revista de Educación evaluó
la calidad y fiabilidad de respuestas de Copilot y ChatGPT ante
preguntas reales (acceso, gestión, dificultad y empleabilidad) para
universidades públicas. La conclusión central no es “la IA orienta”, sino algo
más matizado: los modelos pueden ser útiles como servicio informativo de
primera capa, pero su eficacia depende de la calidad y accesibilidad
de la información institucional; cuando la web es confusa o incompleta, la IA
no “arregla” el problema, lo amplifica o lo disimula con respuestas plausibles.
Ese matiz conecta con una idea clave para orientadores en activo: la IA
es especialmente fuerte en estructurar (resumir normativa interna,
comparar itinerarios, proponer preguntas), y especialmente débil en comprender
contexto humano (familia, duelo, presión social, identidad, expectativas).
En la literatura profesional española reciente, esa frontera aparece de forma
explícita: la IA puede proponer comparativas y tendencias, incluso itinerarios
“personalizados” si el propio alumno introduce datos, pero “informar no es
acompañar”; la herramienta no conoce el ecosistema emocional ni social del
estudiante. [27]
En paralelo, el campo está probando “personajes” y experiencias
públicas de orientación con IA. Un ejemplo mediático es la campaña
universitaria que presenta a “Sofía” como orientadora universitaria generada
por IA, pensada para hablar el lenguaje y los canales de la generación joven.
Aunque no demuestra eficacia educativa, sí muestra una tendencia: la
orientación se “plataformiza” y adopta formatos conversacionales que compiten
con el orientador humano por la atención del alumnado. La cuestión es si esa competencia
se convierte en cooperación (triage y derivación) o en sustitución (asistencia
barata sin garantías). [28]
En Formación Profesional, la investigación aplicada y los informes
sectoriales describen un patrón similar: uso generalizado de IA generativa
(principalmente ChatGPT) para tareas de preparación de materiales, pero cautela
(o rechazo) ante automatizar tutoría y orientación. Un informe de Ayuda en
Acción[29] identifica que más del 60% del profesorado de FP encuestado ha
utilizado herramientas como ChatGPT; al mismo tiempo, el propio informe subraya
que el uso en funciones de orientación o acompañamiento se observa “con mucha
cautela” por el riesgo de sustituir criterio experto por algoritmos opacos y
sesgados que podrían estigmatizar al alumnado vulnerable. [30]
La SEPE[31], desde su revista del Observatorio, formula el límite con claridad: la
IA puede ayudar en muchos aspectos y aliviar tareas burocráticas, pero no debe
reemplazar el acompañamiento humano en tutoría y orientación profesional;
automatizarlo puede aumentar sesgos y desigualdades. Esta postura, aunque
prudente, no es antitecnológica: propone IA para sistematizar información local
y recursos, con interpretación por personal experto. [32]
A partir de estas fuentes, se puede describir una “matriz de valor”
para el orientador en activo (no como receta universal, sino como guía
operativa):
Dónde suele aportar más (bajo a medio riesgo):
redactar borradores de comunicaciones, preparar guiones de entrevista, generar
bancos de preguntas para exploración vocacional, convertir información dispersa
(ciclos, salidas, requisitos) en comparativas legibles, diseñar materiales para
tutoría, crear rúbricas y checks de itinerarios, y analizar tendencias de
empleabilidad a partir de fuentes verificables. [33]
Dónde la prudencia debe ser máxima (alto riesgo): recomendar itinerarios “óptimos” sin supervisión, etiquetar perfiles
(“apto/no apto”), inferir motivaciones o estados emocionales, automatizar
decisiones que impacten acceso, evaluación y derivación, o trabajar con datos
personales de menores en plataformas no autorizadas por el
centro/administración. [34]
Finalmente, un aspecto que a menudo se olvida: la adopción real
requiere formación y comunidad profesional. En España se observa una respuesta
formativa explícita en cursos orientados a la competencia digital del
orientador y a las posibilidades de la IA en su práctica diaria, lo que sugiere
que la IA ya se entiende como parte del “oficio”, no como moda pasajera. [35]
Sources: 1. Educaweb[36]. “IA generativa y orientación académica: informar no es acompañar”. Educaweb, 26/02/2026. URL: https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/. [27]
2. Estela Mayor-Alonso; Javier Vidal; Agustín Rodríguez-Esteban (Universidad de
León[37]). “Evaluación de la calidad de modelos de IA generativa como
aplicaciones de orientación universitaria”. Revista de Educación[38], nº 411, enero–marzo 2026. URL: https://recyt.fecyt.es/index.php/Redu/article/view/108970.
3. Ayuda en Acción[29]. “La Inteligencia Artificial en la Formación Profesional (Informe)”. Ayuda
en Acción, 07/2025. URL: https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf. [39]
4. SEPE[31]. “La Inteligencia Artificial Generativa en la Formación Profesional”. Cuadernos
del Mercado de Trabajo (Observatorio SEPE), (fecha en página del artículo),
2025–2026. URL: https://www.sepe.es/HomeSepe/eu/que-es-observatorio/Hipatia/cuadernos-mercado-trabajo/revista-cuadernos-mercado-trabajo/detalle-articulo.html?detail=%2Frevista%2FInteligencia-Artificial%2Flainteligenciaartificialgenerativaenlaformacionprofesional. [32]
5. Magisnet[18]. “Sofía, la primera orientadora universitaria completamente generada
por IA en España”. Magisnet, 01/07/2025. URL: https://www.magisnet.com/2025/07/sofia-la-primera-orientadora-universitaria-completamente-generada-por-ia-en-espana/. [28]
6. Universidad de Burgos[40]. “Orientación Educativa y Propuestas Innovadoras. III edición –
UBUAbierta” (curso). Universidad de Burgos, calendario
18/02/2026–25/03/2026. URL: https://www.ubu.es/te-interesa/orientacion-educativa-y-propuestas-innovadoras-iii-edicion-ubuabierta. [41]
7. COPOE[42]. “Seminario: Inteligencia Artificial en Orientación Educativa y
Profesional” (anuncio). COPOE, 28/03/2025. URL: https://copoe.org/agenda/seminario-inteligencia-artificial-en-orientacion-educativa-y-profesional/. [43]
Riesgos, oportunidades y reglas del juego: privacidad, sesgos y el
nuevo marco de gobernanza:
Si el valor inmediato de la IA en orientación es la productividad, su
condición de posibilidad es la confianza. Y en educación, la confianza se
construye con gobernanza: protección de datos (menores), transparencia (qué
hace el sistema), rendición de cuentas (quién responde) y límites (qué no se
automatiza). En marzo de 2026, las Autoridades de protección de datos españolas
han publicado un decálogo de principios básicos para contratación y uso de
plataformas educativas digitales, señalando dos ideas que afectan
directamente a cualquier uso de IA en centros: (a) los principales afectados
son menores y el “interés superior del menor” exige escrutinio reforzado; (b)
el uso de la plataforma no es voluntario para alumnado y familias, lo
que incrementa la obligación de diligencia del responsable. [44]
El documento también diferencia dimensiones que suelen pasarse por alto
cuando se incorpora IA en plataformas: servicios “básicos” vinculados a la
función educativa frente a servicios adicionales (buscadores, vídeo,
herramientas de IA) que pueden estar bajo condiciones contractuales distintas e
incluso situar al proveedor como responsable para fines propios; además
distingue datos aportados por usuarios (documentos, calificaciones,
comunicaciones) frente a datos generados automáticamente (IPs, metadatos, registros),
cuyo tratamiento puede escapar al control efectivo del responsable. En
orientación, esto se traduce en una regla práctica: la decisión no es solo “qué
herramienta uso”, sino “en qué ecosistema contractual y técnico vive esa
herramienta”. [45]
En enero de 2026, la AEPD publicó además un decálogo de recomendaciones
para proteger la privacidad al usar herramientas de IA (“Cuidado con lo que le
confías”). Varias recomendaciones son directamente accionables por
orientadores: no introducir datos personales (nombre, dirección, DNI,
imágenes), evitar información sensible, respetar privacidad de terceros
(especialmente menores), no incluir información profesional confidencial y
mantener postura crítica ante respuestas plausibles pero erróneas. Este decálogo
encaja con la realidad diaria de orientación: trabajar con historias
personales. Por tanto, si la herramienta no está “institucionalizada” (DPA,
controles, autorización del centro), el estándar prudente es usar casos
ficticios y datos anonimizados. [46]
La segunda capa de gobernanza llega desde Europa. El Reglamento europeo
de IA (AI Act) adopta un enfoque basado en riesgos y clasifica como alto
riesgo sistemas destinados a determinar acceso/admisión, evaluar resultados
del aprendizaje o asignar personas en educación y formación profesional. Para
orientación, el mensaje no es abstracto: cualquier IA que se acerque a
“decidir” (admisión, nivel adecuado, evaluación que guía el proceso) entra en
un territorio regulatorio más exigente. Incluso cuando un centro use IA para
“apoyar” decisiones, el diseño del proceso deberá preservar supervisión humana,
documentación, trazabilidad y medidas contra sesgos. [47]
Además, la Comisión Europea ha actualizado en 2026 sus directrices
éticas para educadores sobre el uso de IA y datos, justificándolo por el
aumento significativo de uso de IA en educación, la llegada de regulación (AI
Act) y la necesidad de alfabetización crítica y ética. Para orientación, estas
directrices son relevantes porque desplazan la pregunta desde “¿me ayuda?”
hacia “¿es justo, explicable y compatible con derechos?”. [48]
Con este marco, la elección de herramientas deja de ser un asunto de
preferencias y pasa a ser una decisión de riesgo y cumplimiento. A
continuación se propone una tabla comparativa práctica (no exhaustiva) para
orientadores en activo. Los costes son orientativos y las garantías dependen
del plan y del contexto de contratación (cuenta personal vs.
educativa/organizativa). [49]
|
Herramienta (familia) |
Funcionalidad principal |
Casos de uso típicos en orientación |
Evidencia de eficacia (últimos 12 meses) |
Coste aproximado (marzo 2026) |
Privacidad / compatibilidad RGPD (orientación en centros) |
|
ChatGPT (OpenAI[50]) |
Asistente generativo multipropósito (redacción, síntesis, ideación) |
Borradores de informes (sin datos personales), guiones de entrevista,
materiales de tutoría, comparativas de itinerarios a partir de fuentes
aportadas |
Estudio español en orientación universitaria sugiere potencial,
condicionado por calidad de fuentes (universidades) |
Desde 8 USD/mes (Go) y 20 USD/mes (Plus) en precios globales
publicados por OpenAI; planes Business/Enterprise varían |
Riesgo alto con cuentas personales si se
introducen datos de menores; mejor con planes/entornos organizativos
donde “no se entrena por defecto” y con controles. Requiere políticas
internas y anonimización estricta |
|
Microsoft 365 Copilot (Microsoft[51]) |
IA integrada en ecosistema M365 (Word, Outlook, Teams) con datos del
tenant |
Resúmenes de reuniones de orientación (con controles), borradores de
comunicaciones, plantillas de informes, análisis de documentos internos |
Evidencia indirecta (productividad) y marco de protección
empresarial; no específica de orientación escolar |
21,84 € por usuario/mes (Copilot Business, compromiso mensual; sin
IVA) |
Más favorable en organizaciones por
“enterprise data protection” y no entrenamiento de modelos fundacionales con
prompts/respuestas; sigue exigiendo control de permisos y DPA |
|
Gemini (Google[52]) |
Asistente generativo y herramientas (Deep Research, NotebookLM)
integrables con apps Google |
Síntesis de documentos, preparación de sesiones, creación de
recursos; NotebookLM para trabajar sobre documentos aportados |
Evidencia indirecta; directrices europeas 2026 refuerzan enfoque
ético y alfabetización crítica |
En España: 7,99 €/mes (AI Plus) y 21,99 €/mes (AI Pro) |
Variable: depende de configuración y del
tipo de cuenta (personal vs. Workspace/Education). Requiere revisar avisos de
privacidad específicos y evitar datos personales salvo marco contractual
adecuado |
|
Perplexity (Perplexity AI[53]) |
“Answer engine” con búsquedas y citas; útil para verificación |
Verificar normativa, reunir fuentes laborales/educativas, construir
dossiers con citas |
Ventaja principal: trazabilidad (respuestas citadas). No evidencia
específica de orientación escolar en España |
Enterprise (referencia): 20 USD/mes (plan individual Pro aparece en
su oferta; Enterprise con escalado) |
Útil para verificación por citas; privacidad
depende del plan. En entornos educativos, mejor usar configuración/planes con
compromisos de datos y evitar datos personales |
Recomendaciones prácticas (orientadores en activo) que se desprenden
del marco 2026: 1) Separar “IA para escribir” de “IA para decidir”. Lo
primero puede ser de bajo riesgo si se anonimizan datos; lo segundo se acerca a
“alto riesgo” y exige controles reforzados y, en la práctica, mucha más
cautela. [54]
2) Adoptar una regla de oro de datos: si no está en una herramienta
aprobada por el centro/administración (o no hay marco contractual claro), no
entran datos personales. Trabajar con casos ficticios y plantillas. [55]
3) Diseñar “doble validación” en productos orientadores: la IA produce
el borrador; el orientador valida con fuentes oficiales y contexto del alumno;
y se documenta el uso (qué hizo la IA y qué decidió el profesional). La
formación docente española ya está incorporando explícitamente modelos de
documentación y declaración de uso. [56]
4) Construir alfabetización crítica del alumnado: si el 37,9% de la
población ya usa IA generativa, la orientación debe incluir competencias para
evaluar calidad, sesgos y límites de estas herramientas en decisiones
académicas y laborales. [57]
El riesgo más serio en orientación no es que la IA “se equivoque” (eso
se puede detectar con procedimientos), sino que se convierta en una autoridad
silenciosa: recomendaciones con apariencia de objetividad que el alumno
acepta por fatiga informativa, o que el sistema usa para justificar recortes
(“si el chatbot lo hace…”). Por eso la oportunidad principal es también
cultural: usar IA para liberar tiempo y elevar el acompañamiento humano, no
para abaratarlo. [58]
Sources: 1. Agencia Española de Protección de Datos[59]. “Las Autoridades de Protección de Datos publican un decálogo de
principios básicos para la contratación y el uso de plataformas educativas
digitales”. AEPD (Nota de prensa), 23/03/2026. URL: https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas. [60]
2. Agencia Española de Protección de Datos[59]; APDCAT; AVPD; CTPDA. “Principios básicos para la contratación y uso
de plataformas educativas digitales por las administraciones educativas y
centros docentes (Guía publicada en marzo 2026)”. AEPD (PDF), 03/2026.
URL: https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf. [61]
3. Agencia Española de Protección de Datos[59]. “La AEPD publica un decálogo con recomendaciones para proteger la
privacidad al usar herramientas de IA”. AEPD (Nota de prensa),
27/01/2026. URL: https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia. [62]
4. Agencia Española de Protección de Datos[59]. “Recomendaciones para proteger la privacidad al usar herramientas de
IA (‘Cuidado con lo que le confías’)”. AEPD (PDF), 2026. URL: https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf. [63]
5. Agencia Española de Supervisión de Inteligencia Artificial[64]. “Sistemas de alto riesgo (RIA)”. AESIA, 2025–2026. URL: https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo. [65]
6. “Anexo III: Sistemas de IA de alto riesgo (Educación y formación
profesional)”. ArtificialIntelligenceAct.eu (texto consolidado y extractos
del AI Act), s. f. URL: https://artificialintelligenceact.eu/es/annex/3/. [66]
7. European Commission[67]. “Guidelines on the ethical use of
artificial intelligence and data in teaching and learning for educators”
(actualización 2026). European Commission – Education, 05/03/2026. URL: https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence. [48]
8. OpenAI[50]. “Business data privacy, security,
and compliance” (no training by default en planes Business/Enterprise/Edu y
API). OpenAI, (actualizado en
el periodo reciente). URL: https://openai.com/business-data/. [68]
9. OpenAI[50]. “What if I want to keep my history
on but disable model training?” (controles para desactivar
entrenamiento en planes personales). OpenAI Help Center, (actualizado en
el periodo reciente). URL: https://help.openai.com/en/articles/8983130-what-if-i-want-to-keep-my-history-on-but-disable-model-training. [69]
10. Microsoft[51]. “Enterprise data protection in
Microsoft 365 Copilot and Microsoft 365 Copilot Chat”. Microsoft Learn,
08/12/2025. URL: https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection. [70]
11. Microsoft[51]. “Data, Privacy, and Security for
Microsoft 365 Copilot”. Microsoft Learn, 09/03/2026. URL: https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy. [71]
12. Microsoft[51]. “Microsoft 365 Copilot: Planes y precios (España)”. Microsoft,
(consultado en marzo 2026). URL: https://www.microsoft.com/es-es/microsoft-365-copilot/pricing. [72]
13. Google[52]. “Google AI Pro y Ultra – Suscripciones (España)”. Gemini (Google),
(consultado en marzo 2026). URL: https://gemini.google/es/subscriptions/?hl=es. [73]
14. Google[52]. “Gemini Apps Privacy Notice” (aviso de privacidad). Google Support, actualizado 27/03/2026. URL: https://support.google.com/gemini/answer/13594961?hl=en. [74]
15. Perplexity AI[53]. “Perplexity Enterprise Pricing”. Perplexity, (consultado en
2026). URL: https://www.perplexity.ai/enterprise/pricing. [75]
Conclusion:
En España, la IA ya no es un “extra” tecnológico: en el último año se
ha consolidado como fenómeno social (uso masivo), económico (adopción
empresarial) e institucional (programa educativo con inversión pública y
despliegue de IA oficial). Para orientación educativa y profesional, este
movimiento puede ser una oportunidad histórica si se usa para reducir
burocracia y aumentar el tiempo de acompañamiento, no para reemplazarlo. [14]
La evidencia disponible sugiere una conclusión operativa: la IA sirve
para informar, organizar y redactar con eficiencia, pero orientar —en
sentido pleno— requiere contexto, ética y vínculo. Los casos analizados en FP y
universidad convergen en la misma frontera: apoyo sí; sustitución no,
especialmente en tareas que pueden amplificar sesgos y desigualdades. [76]
La variable decisiva para los próximos meses será la gobernanza: datos
de menores, contratos con plataformas, transparencia y cumplimiento del enfoque
de riesgo del AI Act. En 2026, la AEPD y la Comisión Europea han reforzado el
mensaje: sin privacidad, sin límites claros y sin alfabetización crítica, la IA
no moderniza la orientación; la precariza. Con controles, documentación y
supervisión profesional, la IA puede convertirse en la infraestructura
silenciosa que libere a los orientadores para lo que ninguna máquina hace:
comprender, sostener y abrir posibilidades reales en vidas concretas. [77]
[1] [5] [6] [9] [10] [17] [36]
https://elpais.com/educacion/2026-03-25/los-profesores-de-la-ensenanza-publica-haran-con-una-ia-oficial-la-primera-evaluacion-de-los-alumnos.html
[2] [7] [18] [26] [27] [33] [40] [42]
https://www.educaweb.com/noticia/2026/02/26/ia-generativa-orientacion-academica-informar-no-es-acompanar-22048/
[3] [44] [52] [60]
https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/las-autoridades-proteccion-datos-publican-decalogo-contratacion-plataformas-educativas
[4] [29]
https://www.educaweb.com/noticia/2025/11/18/orientacion-academica-profesional-alumnado-principales-carencias-como-afrontarlas-21975/
[8] [24] [45] [61] [64] [77]
https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf
https://www.aepd.es/documento/apd-plataformas-educativas-administraciones-centros.pdf
[11] [53]
https://www.infobae.com/espana/agencias/2026/03/25/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/
[12] [14] [15] [19] [22] [57]
https://www.ine.es/dyngs/Prensa/TICH2025.htm
https://www.ine.es/dyngs/Prensa/TICH2025.htm
[13] [25]
https://digital.gob.es/comunicacion/notas-prensa/secretaria-digitalizacion-e-inteligencia-artificial/2026/03/mas-de-1-000-personas-colaboran-en-el-desafio-para-alinear-la-in
[16] [30] [34] [39]
https://ayudaenaccion.org/uploads/2025/07/AeA_Informe-Inteligencia-Artificial-FP_ESP_Final_compressed.pdf
[20]
https://www.magisnet.com/2026/03/educacion-crea-una-ia-especifica-para-quitar-burocracia-a-los-docentes-y-apoyar-sus-tareas/
[21] [69]
https://help.openai.com/en/articles/8983130-what-if-i-want-to-keep-my-history-on-but-disable-model-training
[23]
https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm
https://www.ine.es/dyngs/Prensa/ETICCE20241T2025.htm
[28] Sofía, la primera orientadora
universitaria completamente generada por IA en España - Magisnet
[31] [66] https://artificialintelligenceact.eu/es/annex/3/
https://artificialintelligenceact.eu/es/annex/3/
[32] [58] [76] La Inteligencia Artificial
Generativa en la Formación Profesional
[35] [41] Orientación Educativa y
Propuestas Innovadoras. III edición - UBUAbierta - | Universidad de Burgos
https://www.ubu.es/te-interesa/orientacion-educativa-y-propuestas-innovadoras-iii-edicion-ubuabierta
[37] [47] [54]
https://aesia.digital.gob.es/en/presentria-sistemas-de-alto-riesgo
https://aesia.digital.gob.es/en/presentria-sistemas-de-alto-riesgo
[38] [48]
https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence
[43] Utilización de la IA en
Orientación Educativa y Profesional
https://www.copoe.org/seminario-permanente-ia?utm_source=chatgpt.com
[46] [50] [62]
https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/aepd-publica-decalogo-recomendaciones-proteger-privacidad-al-usar-ia
[49] [72]
https://www.microsoft.com/es-es/microsoft-365-copilot/pricing
https://www.microsoft.com/es-es/microsoft-365-copilot/pricing
[51] [75]
https://www.perplexity.ai/enterprise/pricing
https://www.perplexity.ai/enterprise/pricing
[55] [63]
https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf
https://www.aepd.es/guias/recomendaciones-ia-aepd.pdf
[56] [67]
https://intef.es/wp-content/uploads/2025/06/Orientaciones-para-la-integracion-de-la-IA-en-la-formacion-docente-2-1.pdf
[59] [74]
https://support.google.com/gemini/answer/13594961?hl=en
https://support.google.com/gemini/answer/13594961?hl=en
[65]
https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo
https://aesia.digital.gob.es/es/actualidad/recursos/ria-sistemas-de-alto-riesgo
[68] https://openai.com/business-data/
https://openai.com/business-data/
[70]
https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection
https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection
[71]
https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy
https://learn.microsoft.com/en-us/copilot/microsoft-365/microsoft-365-copilot-privacy
[73] https://gemini.google/subscriptions/?hl=es
https://gemini.google/subscriptions/?hl=es

No hay comentarios:
Publicar un comentario
Tus comentarios nos ayudan a mejorar.