Un grupo de investigadores de la Universidad de Stanford se propuso examinar los resultados que la asistencia de una IA tenía en las tareas de programación. Los resultados mostraron que los asistentes virtuales llevaban a la creación de software más inseguro y de menor calidad.
Al parecer el problema es una falsa sensación de seguridad en el programador. Los participantes que habían accedido a asistentes de inteligencia artificial eran más proclives a creer que habían creado un código seguro que aquellos que no habían tenido acceso al asistente.
Estudio
Unas 47 personas participaron del estudio. La muestra puede considerarse pequeña, pero tenía variedad en los niveles de experiencia. Se ofrecieron 5 consignas para la creación de código. El grupo que recibió asistencia de una IA logró producir programas de calidad en el 67% de los casos. El grupo de control consiguió lo mismo en el 79%.
Ahora bien, ¿son estos resultados una prueba definitiva? No. Pero son buenos indicadores para seguir investigando.
Antecedentes
Los investigadores apuntaron como antecedente a un trabajo realizado por la Universidad de Nueva York. En ese estudio se señalaba que en el sistema Copiloto de Github, en un total de 89 escenarios, había producido programas con vulnerabilidades en el 40% de las ocasiones.
El estudio del equipo de Stanford es mucho más amplio en término de lenguajes utilizados.