Un estudio llevado a cabo por científicos informáticos de la Universidad de Stanford ha revelado que el uso de asistentes de codificación basados en inteligencia artificial (IA) puede dar lugar a un código más defectuoso. La investigación, titulada ‘¿Escriben los usuarios un código más inseguro con los asistentes de IA?’, examinó el uso de estos asistentes por parte de desarrolladores, incluyendo el polémico GitHub Copilot.
Los resultados indicaron que los participantes que utilizaron un asistente de IA produjeron más vulnerabilidades de seguridad que aquellos que no lo utilizaron, especialmente en lo que respecta a la encriptación de cadenas y la inyección SQL. Además, el estudio encontró que los desarrolladores que utilizan estos asistentes de IA tienen una confianza equivocada en la calidad de su código.
El estudio se llevó a cabo con 47 personas que escribieron código en respuesta a varias solicitudes. Algunos participantes utilizaron un asistente de IA, mientras que otros no lo hicieron. La primera solicitud era escribir dos funciones en Python que encriptaran y desencriptaran una cadena dada utilizando una clave simétrica.
El grupo que no utilizó la IA tuvo una tasa de acierto del 79% en la solicitud, en comparación con el 67% del grupo asistido por la IA. El grupo asistido por la IA también utilizó cifrados triviales, como los cifrados de sustitución, y no realizó comprobaciones de autenticidad en el valor final devuelto.
El estudio concluye que el uso de asistentes de codificación basados en IA puede dar lugar a un código más defectuoso, menos seguro y potencialmente denunciable. Además, destaca la necesidad de garantizar la debida atribución y cumplimiento de derechos de autor en la utilización de estos asistentes de IA.
Aquí esta el enlace al estudio oficial de la universidad de Stanford. (En ingles).
Libro recomendado sobre inteligencia artificial: