En el marco del Foro «Uso Ético de la Inteligencia Artificial en Educación», el especialista en Inteligencia Artificial (IA), Rafael Pérez y Pérez, compartió reflexiones cruciales para despejar malentendidos en torno a las capacidades de estos sistemas. Desde el Edificio de Educación Continua y Digital de la Universidad Autónoma del Estado de México (UAEMéx), Pérez y Pérez destacó la necesidad de comprender las limitaciones y verdaderos alcances de la IA, desafiando percepciones equivocadas que han florecido en la sociedad.

El conferenciante inició su intervención subrayando la incorrecta noción de que los sistemas de IA pueden replicar procesos similares a los del cerebro humano. Pérez y Pérez argumentó que, debido a nuestra comprensión aún limitada del funcionamiento cerebral, es inviable desarrollar programas de cómputo que imiten sus procesos. Este es un punto crucial para desmontar expectativas poco realistas y frenar la propagación de una percepción errónea.

Un término que resalta en las discusiones sobre IA es «aprendizaje de máquina», que Pérez y Pérez señala como un concepto diferente al proceso de aprendizaje humano. Este matiz es esencial, ya que las analogías entre la IA y el aprendizaje humano pueden generar malentendidos. El especialista abogó por la transparencia en la comunicación, subrayando que los documentos éticos relacionados con la IA deben contextualizar su funcionamiento en comparación con el cerebro humano, evitando así contribuir a la confusión existente.

En medio de estas reflexiones, Rafael Pérez y Pérez advirtió sobre la desinformación que rodea a la IA, resaltando que es crucial reconocer que estos sistemas no están diseñados para la educación. Un ejemplo de esta desinformación es la percepción de sistemas como ChatGPT como herramientas educativas, cuando, en realidad, su propósito es la generación de textos bien estructurados en diversos temas, enfocándose más en la gramática y la coherencia que en la veracidad o ética del contenido.

La ausencia de regulaciones para sistemas como ChatGPT es una preocupación destacada por el especialista. Pérez y Pérez resaltó la falta de claridad sobre los datos utilizados para entrenar estos sistemas y las herramientas empleadas para mejorar su rendimiento. Este vacío regulatorio plantea interrogantes sobre la ética y la responsabilidad en el uso de la IA, especialmente cuando se trata de herramientas que generan contenido textual de manera autónoma.