OTIMIZAÇÃO DA EFICIÊNCIA COMPUTACIONAL E SEGURANÇA DE CÓDIGO POR PROJETO EM PIPELINES DE MODELOS DE LINGUAGEM DE GRANDE PORTE: ANÁLISE COMPARATIVA DE CUSTOS DE INFERÊNCIA
Palavras-chave:
LLMs, Eficiência Energética, Cibersegurança, Segurança por Design, OtimizaçãoResumo
Os Grandes Modelos de Linguagem (LLMs) revolucionaram a engenharia de software ao gerar código de forma rápida e precisa em uma ampla gama de tarefas de programação. No entanto, a crescente dependência desses modelos levanta preocupações quanto ao seu consumo de energia, sobrecarga de tempo de execução e à eficiência na obtenção de um código bem-sucedido, seguro desde a concepção e de fácil manutenção. Este artigo apresenta uma comparação analítica de vários LLMs líderes — como a série GPT da OpenAI, Claude da Anthropic, Llama da Meta e Gemini do Google — avaliando as suas taxas de sucesso na produção de código seguro e otimizado, o número de prompts necessários para uma saída bem-sucedida e os custos computacionais e energéticos correspondentes. As conclusões enfatizam estratégias para equilibrar precisão, desempenho e sustentabilidade na programação assistida por LLM.
Downloads
Publicado
Edição
Seção
Licença

Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial 4.0 International License.