OPTIMIZACIÓN DE LA EFICIENCIA COMPUTACIONAL Y SEGURIDAD DEL CÓDIGO POR DISEÑO EN GRANDES CANALIZACIONES DE MODELOS DE LENGUAJE: ANÁLISIS COMPARATIVO DE LOS COSTOS DE INFERENCIA
Palabras clave:
Llms, Eficiencia Energética, Ciberseguridad, Seguridad por Diseño, OptimizaciónResumen
Los Grandes Modelos de Lenguaje (LLM) han revolucionado la ingeniería de software al generar código de forma rápida y precisa en una amplia gama de tareas de programación. Sin embargo, la creciente dependencia de estos modelos genera inquietudes respecto de su consumo de energía, la sobrecarga en tiempo de ejecución y la eficiencia para lograr un código exitoso, seguro por diseño y mantenible. Este artículo presenta una comparación analítica de varios LLM líderes, como la serie GPT de OpenAI, Claude de Anthropic, Llama de Meta y Gemini de Google, evaluando sus tasas de éxito en la producción de código seguro y optimizado, el número de indicaciones necesarias para obtener un resultado satisfactorio y los correspondientes costes computacionales y energéticos. Los resultados ponen de relieve las estrategias para equilibrar la precisión, el rendimiento y la sostenibilidad en la programación asistida por LLM.
Descargas
Publicado
Número
Sección
Licencia

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.