CNEIP
VOLUMEN  7  |   NÚMERO 1  |  2025

Reflexiones de Actualidad
CNEIP
La Inteligencia Artificial en la certificación de profesionales de Psicología
Artificial Intelligence in the Psychologist Certification
DOI  https://doi.org/10.62364/b9x05j64
Eduardo Backhoff Escudero*
Métrica Educativa, A. C. *

Citación
Backhoff Escudero, E. (2025). La Inteligencia Artificial en la certificación de profesionales de Psicología. Enseñanza e Investigación en Psicología, 7(1), 1-5. https://doi.org/10.62364/b9x05j64

Artículo  enviado 22-07-2025,   aceptado 03-10-2025,   publicado 13-10-2025.  

Resumen
Este ensayo analiza el potencial de la Inteligencia Artificial (IA) en la certificación de profesionales de la Psicología, destacando algunos de sus beneficios como mayor eficiencia y objetividad. Se abordan retos técnicos, éticos y legales, enfatizando la necesidad de modelos híbridos que combinen IA con supervisión humana. La transparencia, la equidad y la protección de los datos son pilares para su implementación responsable. Aunque en México la certificación de psicólogos y psicólogas no es obligatoria, la experiencia internacional en el tema podrá servirle al país cuando ésta se regule.

Palabras clave
inteligencia artificial, certificación, Psicología, evaluación de competencias profesionales, México.


Abstrac
This essay examines the potential of Artificial Intelligence (AI) in psychologist certification, highlighting benefits such as increased efficiency and objectivity. It addresses technical, ethical, and legal challenges, emphasizing the need for hybrid models combining AI with human supervision. Transparency, fairness, and data protection are key pillars for responsible implementation. Although certification of psychologists is not mandatory in Mexico, international experience in this area may be useful to the country when it is regulated.

Keywords
artificial intelligence, certification, Psychology, professional competences evaluation, Mexico.


La certificación de profesionistas se entiende como el proceso formal que acredita las competencias, conocimientos y valores éticos necesarios para ejercer una profesión, por parte de agentes independientes de las instituciones que emiten un título universitario. Dicho proceso intenta garantizar la calidad en la atención que se brinda a la población de un país o región. En distintos países desarrollados, este proceso se ha realizado usualmente con base en pruebas objetivas de habilidades y conocimientos, así como en la opinión de psicólogos y psicólogas certificados en los distintos ámbitos de la profesión. Sin embargo, recientemente, ha emergido una nueva herramienta informática capaz de analizar grandes volúmenes de datos, reducir sesgos humanos y ofrecer evaluaciones ágiles, objetivas y repetibles: la Inteligencia Artificial (IA).

Aunque en México la profesión de la Psicología no se regula por medio de mecanismos de certificación, como sucede en otros países (ejs. Estados Unidos y Canadá), este ensayo tiene el propósito de analizar la forma en que, en un futuro, México podría integrar la IA a los procesos de certificación de profesionales de la Psicología, identificando sus beneficios, desafíos éticos, limitaciones metodológicas y requisitos normativos. Se parte de la premisa de que el uso de la IA solo será efectiva si se acompaña de una supervisión humana, si se transparentan los algoritmos matemáticos que se utilicen y si se apega a marcos legales y normativos sólidos y justos. Con ello se podrá evitar impactos negativos en la equidad, la privacidad y la validez de los nuevos procesos evaluativos, que se apoyen en la IA.

 

Certificación Profesional en Psicología (CPP) 

La CPP es el proceso mediante el cual se verifica que una persona reúne las competencias necesarias para ejercer la profesión de Psicología garantizando tanto sus conocimientos teóricos, como su capacidad para aplicarlos eficaz y éticamente. La finalidad de la certificación es doble: proteger al público y promover estándares elevados de la profesión. Este proceso incluye, entre otros componentes, exámenes escritos o asistidos por computadora, entrevistas estructuradas, análisis de casos clínicos y revisión de experiencias profesionales. 

La Asociación Americana de Psicología (APA) y la Federación Europea de Asociaciones de Psicología (EFPA), así como diversos departamentos nacionales de salud de algunos países, han desempeñado un rol central en la definición de los criterios técnicos, éticos y procedimentales para garantizar la validez, confiabilidad, equidad y transparencia de los procesos evaluativos. No obstante, la experiencia internacional señala que los procesos tradicionales de certificación dependen excesivamente de evaluadores humanos que son onerosos, introducen sesgos subjetivos y son lentos por naturaleza (Cizek & Bunch, 2007). Estas limitaciones incentivan la exploración de las herramientas de IA que mejoren la objetividad, accesibilidad y eficiencia de la certificación de psicólogos y psicólogas (Luxton, 2016).

 

Inteligencia Artificial (IA)

La IA se entiende como sistemas informáticos capaces de realizar tareas que normalmente requieren la inteligencia humana como el aprendizaje, el razonamiento, la comprensión del lenguaje y la toma de decisiones. En su forma más básica, la IA se apoya en algoritmos que procesan grandes cantidades de datos para reconocer patrones, predecir comportamientos o recomendar acciones. Entre sus aplicaciones más relevantes en tareas de evaluación se encuentran: el aprendizaje automático (machine learning), el procesamiento del lenguaje natural (NLP, por sus siglas en inglés) y los sistemas expertos de análisis conductual (Russell & Norvig, 2020).

La CCP implica la evaluación de múltiples dimensiones: conocimientos teóricos, juicio clínico, habilidades interpersonales y compromiso ético. Una de las aplicaciones más prometedoras es la simulación clínica asistida por IA. Mediante plataformas interactivas, se pueden presentar a los aspirantes casos clínicos o problemas psicológicos de distinta índole a resolver, para que éstos tomen decisiones en tiempo real (Ajluni, 2025). La IA puede evaluar automáticamente la calidad de las respuestas en función de criterios previamente definidos, analizando variables como el uso del lenguaje técnico, la identificación de riesgos éticos o el uso de criterios normativos establecidos (Luxton, 2016).

Otro escenario emergente es el uso de análisis de lenguaje natural para evaluar entrevistas grabadas o escritas. Mediante esta tecnología, los sistemas pueden identificar patrones en la forma en que los candidatos describen intervenciones terapéuticas, evalúan a pacientes hipotéticos o aplican principios éticos. Esto permitiría una revisión más uniforme y menos sujeta a prejuicios personales. Además, los sistemas de IA pueden ofrecer retroalimentación inmediata y adaptativa, permitiendo a los candidatos mejorar sus habilidades en tiempo real. Esto no solo mejora la experiencia del evaluado, sino que también contribuye a su formación continua.

Sin embargo, esta promesa viene acompañada de desafíos importantes. La IA no puede evaluar, al menos por ahora, aspectos complejos como la empatía o la capacidad para establecer una relación terapéutica. Por tanto, muchos expertos proponen un modelo híbrido, en el que la IA complemente, pero no reemplace, el juicio de humanos (Floridi et al., 2018).

 

Aspectos éticos en el uso de IA para la CPP 

El uso de IA en la CPP, además de plantear oportunidades tecnológicas, presenta desafíos éticos. La IA en estos procesos implica que se consideren valores fundamentales como la justicia, la transparencia, la privacidad y la responsabilidad. Uno de los principales dilemas éticos es la transparencia de los algoritmos; es decir, los cálculos matemáticos que se utilizan en la evaluación de personas, los que pueden funcionar como “cajas negras” (Doshi-Velez & Kim, 2017). Dichos algoritmos pueden generar resultados sesgados para ciertas poblaciones, dependiendo si los modelos de IA se entrenaron, o no, con poblaciones que representen los diversos estratos culturales de un país, así como de género y niveles socioculturales. De lo contrario, la IA podría reproducir o incluso amplificar las desigualdades sociales (Floridi et al., 2018). 

El derecho de las personas evaluadas a la apelación de sus resultados también debe de garantizarse, lo que requerirá de la intervención humana de supervisión y revisión. Asimismo, se debe de garantizar la protección de datos personales, ya que el proceso de CPP implica manejar información sensible relacionada con la formación, el desempeño y las características personales de los candidatos evaluados. Es decir, que el cumplimiento de normas de privacidad y confidencialidad debe ser una prioridad en el proceso de certificación (OECD, 2021).

Por los diversos problemas antes señalados, es recomendable que se utilicen modelos híbridos que combinan la IA con la supervisión humana, y que se programen auditorías periódicas del comportamiento de los algoritmos y de los profesionales que participen en la CPP (Jobin et al., 2019). 

 

Validez y confiabilidad de la evaluación asistida por IA

Como todo instrumento de evaluación psicológica, es indispensable que los sistemas de CPP tengan evidencias de su validez y confiabilidad. Ello implica que los resultados de la evaluación reflejen fielmente el nivel de competencias profesionales de los aspirantes y que éstos sean consistentes y reproducibles bajo condiciones similares (American Educational Research Association et al., 2014). Para ello, los evaluadores humanos deben entender cabalmente cómo la IA opera, genera resultados y arriba a conclusiones. Sin este conocimiento se corre el riesgo de dar por buenos resultados que se generan en forma automática, pero que no reflejan con precisión las competencias profesionales de los candidatos (Doshi-Velez & Kim, 2017). Finalmente, para garantizar la confiabilidad de la CPP, la IA debe ser sometida a pruebas rigurosas que midan la consistencia de sus resultados, en diferentes grupos y contextos sociales (Baker & Simmens, 2014).

 

Retos y limitaciones en la implementación de IA en la CPP

Aunque la IA promete transformar la CPP, su utilización presenta retos y limitaciones importantes en los países. En primer lugar, la calidad y diversidad de los datos para entrenar a la IA representa un gran obstáculo, ya que estos sistemas informáticos requieren grandes volúmenes de información para que se puedan entrenar adecuadamente. Con una cantidad limitada de datos y poco representativos, los resultados de la evaluación serán inexactos, sesgados e injustos (Floridi et al., 2018). 

Un segundo reto que se enfrentará el uso de la IA es la resistencia de la comunidad de profesionales de la Psicología a ser evaluados por mecanismos automatizados (Luxton, 2016). Esto sin considerar que, actualmente, la IA tiene serias limitaciones técnicas; por ejemplo, no puede captar aspectos subjetivos y humanos como la capacidad de establecer relaciones terapéuticas profundas o la ética práctica en situaciones reales (Jobin et al., 2019). Esto limita el alcance de la evaluación automatizada, que debe ser complementaria y nunca debe sustituir al juicio humano. Otro aspecto a considerar son las implicaciones legales y regulatorias. Los marcos normativos actuales en muchos países no están completamente preparados para regular el uso de IA en la certificación profesional, lo que genera incertidumbre sobre responsabilidad en caso de errores o disputas (OECD, 2021); este es el caso de México. Finalmente, la inversión económica y la infraestructura tecnológica necesarias para implementar mecanismos de IA de forma segura y eficiente pueden ser prohibitivas para algunas instituciones, especialmente en países con menos recursos.

 

Recomendaciones para una implementación ética y efectiva de la IA en la CPP 

Para que la IA pueda integrarse a la CPP, es necesario seguir un conjunto de recomendaciones que aseguren tanto la eficacia como el respeto a los valores éticos fundamentales. Primero, se debe garantizar la transparencia en el desarrollo y uso de los sistemas de IA. Esto implica que los candidatos y evaluadores comprendan cómo funcionan los algoritmos, qué criterios se aplican y cómo se toman las decisiones automatizadas (Doshi-Velez & Kim, 2017). 

En segundo lugar, es esencial realizar auditorías periódicas de los algoritmos para identificar y corregir posibles sesgos, asegurando que las evaluaciones sean justas y equitativas para todos los aspirantes, independientemente de su género y condiciones socioculturales (Floridi et al., 2018). En tercer lugar, se recomienda un enfoque híbrido, en el que la IA complemente, pero no reemplace, al juicio humano. La supervisión de expertos garantiza que aspectos como la empatía, la ética y la relación profesional sean evaluados adecuadamente (Jobin et al., 2019).

En cuarto lugar, la protección de datos personales debe ser rigurosa, cumpliendo con las normativas vigentes para asegurar la privacidad y confidencialidad de la información sensible de los candidatos (OECD, 2021). Finalmente, es importante invertir en la formación continua de evaluadores y desarrolladores, promoviendo competencias tanto técnicas como éticas para manejar y supervisar estas tecnologías emergentes de manera responsable.

 

Reflexiones finales y perspectivas futuras

La integración de la IA en la certificación de psicólogos y psicólogas representa un paso innovador, con el potencial de transformar procesos complejos haciéndolos más eficientes, objetivos y accesibles. Sin embargo, este avance no está exento de retos técnicos, éticos y sociales que exigen una cuidadosa reflexión y regulación. A lo largo de este ensayo hemos visto que la IA puede complementar la evaluación tradicional, pero no puede reemplazar aspectos humanos esenciales como la empatía y la ética profesional. Por ello, un modelo híbrido que combine la tecnología con el juicio experto es la propuesta más viable y responsable (Jobin et al., 2019).

Mirando hacia el futuro, la evolución de algoritmos explicables y justos, junto con un marco normativo claro y participativo, será crucial para aprovechar al máximo estas herramientas. Además, la formación continua de profesionales de la Psicología y evaluadores en competencias digitales será indispensable para adaptarse a estas nuevas realidades. Finalmente, la certificación asistida por IA abre un espacio para reflexionar sobre cómo la tecnología redefine la práctica profesional y la confianza social en la psicología. El diálogo entre tecnólogos, psicólogos, reguladores y la sociedad civil será clave para construir un futuro en el que la IA sea aliada de la calidad y la ética en la formación profesional.

La comunidad de psicólogos mexicanos deberá aprender de los procesos modernos de certificación exitosos que se hayan implementado en otros países, para ser adaptados en el contexto nacional, una vez que exista la regulación y normatividad nacional correspondiente.

Referencias

Ajluni, V. (2025). Artificial intelligence in psychiatric education: Enhancing clinical competence through simulation. Industrial Psychiatry Journal, 34(1), 11–15. https://doi.org/10.4103/ipj.ipj_377_24

American Educational Research Association, American Psychological Association, & National Council on Measurement in Education [AERA, APA & NCME]. (2014). The Standards for Educational and Psychological Testing (7th ed.). American Educational Research Association. https://doi.org/10.1037/e577932014-003

Baker, R. & Siemens, G. (2014). Educational Data Mining and Learning Analytics. En R. K. Sawyer (Ed.), The Cambridge Handbook of the Learning Sciences (pp. 253–272). Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9781139519526.016

Cizek, G. J. & Bunch, M. B. (2007)Standard setting: A guide to establishing and evaluating performance standards on tests. SAGE Publications. https://doi.org/10.4135/9781412985005

Doshi-Velez, F., & Kim, B. (2017). Towards A Rigorous Science of Interpretable Machine Learning. arXiv: Machine Learninghttps://doi.org/10.48550/arXiv.1702.08608  

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C.Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P&Vayena, E. (2018). AI 4 People—An ethical framework for a good AI society: Opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5

Jobin, A., Ienca, M., & Vayena, E. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389–399. https://doi.org/10.1038/s42256-019-0088-2

Luxton, D. D. (2016). Artificial Intelligence in Behavioral and Mental Health Care. Academic Press. https://doi.org/10.1016/B978-0-12-420248-1.00001-2

OECD. (2021). Recommendation of the Council on Artificial IntelligenceOECD Publishing. https://doi.org/10.1787/35f20e6e-en



Correspondencia

Eduardo Blackoff Escudero. Correo: ebackhoff@gmail.com ORCID: 0000-0001-7267-4774

* Alvarado 921. Ensenada, Baja California, México.
CNEIP
Mtro. Juan Grapain Contreras
Innovación y desarrollo
Copyright © 2024 CNEIP A.C. Todos los derechos reservados.
     Editorial   |  Educación continua  |  Congreso   |  Consejo Nacional