Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation
« am: 27.06.2024, 17:19:01 »
Forscher entwickeln Sprachmodelle, die ohne speicherintensive Matrixmultiplikationen auskommen und dennoch mit modernen Transformern konkurrieren können sollen.
Stichworte: FPGA, Künstliche Intelligenz, Large Language Model, Transformer, große Sprachmodelle Stichworte: FPGA Künstliche Intelligenz Large Language Model Transformer große Sprachmodelle