Meta发布LLM编译器,大模型对编程还是很执着的

Meta 于 2024 年 6 月 28 日发布的 LLM 编译器,是一个基于 Meta Code Llama 构建的模型家族,具有额外的代码优化和编译器功能。
其功能包括:可以模拟编译器,预测代码大小的最佳传递,并能够反汇编代码,还可以针对新的优化和编译器任务进行微调。
优势主要体现在:
  • 该模型在包含 5460 亿个 LLVM-IR 和汇编代码标记的庞大语料库上进行了训练,并经过指令微调以解释编译器行为,能为学术研究人员和行业从业者在编译器优化方面的进一步研究和开发提供一个可扩展的、具有成本效益的基础。
  • 在代码大小优化方面效果显著,其优化潜力达到了自动调整搜索的 77%,可显著缩短编译时间,提高各种应用的代码效率。
  • 在将 x86_64 和 ARM 汇编转换回 LLVM-IR 时,显示出了 45%的往返反汇编成功率(14%精确匹配),这对于逆向工程任务和遗留代码维护来说非常有价值。
Meta 在 HuggingFace 上公开了 LLM 编译器的 7B 和 13B 模型,采用宽松的许可协议,允许用于研究和商业用途。
阅读剩余
THE END