LLMs entendem nulos? Investigando as representações internas de modelos de geração de código
2025-04-07
Modelos de linguagem grandes (LLMs) demonstraram um progresso notável na geração de código, mas sua verdadeira compreensão de código permanece uma questão. Este trabalho investiga a compreensão de LLMs sobre nulidade em código, empregando avaliação externa (completação de código) e sondagem interna (análise de ativação do modelo). Os resultados revelam que LLMs aprendem e aplicam regras sobre valores nulos, com o desempenho variando com base na complexidade da regra e no tamanho do modelo. O estudo também esclarece como os LLMs representam internamente a nulidade e como esse entendimento evolui durante o treinamento.