Si bien el código escrito por humanos también puede infringir derechos de autor o violar licencias de código abierto, el riesgo con el código generado por IA está relacionado con los datos con los que se entrena a la IA, dice Ilia Badeev, director de Ciencia de Datos en Trevolution Group, una empresa de tecnología de viajes. Existe una buena probabilidad de que muchos agentes de IA estén entrenados con código protegido por derechos de propiedad intelectual.
“Esto significa que la IA podría generar código idéntico al código propietario de sus datos de entrenamiento, lo que supone un gran riesgo”, añade Badeev. “Lo mismo ocurre con el material de código abierto. Muchos programas de código abierto están destinados únicamente a un uso no comercial. Cuando una IA genera código, no sabe cómo se utilizará ese código, por lo que podría acabar infringiendo accidentalmente los términos de la licencia”.
Los proveedores toman medidas
GitHub Copilot, el popular asistente de codificación de IA propiedad de Microsoft, reconoce que podría, en casos excepcionales, “hacer coincidir ejemplos de código utilizados para entrenar el modelo de inteligencia artificial de GitHub”. El asistente de codificación cuenta con un filtro de referencia de código opcional para detectar y suprimir sugerencias que coincidan con el código público, y está probando una función de referencia de código para ayudar a los usuarios a encontrar y revisar licencias de código abierto potencialmente relevantes.