Newsparadies: Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation

News => Welt-Ticker => Thema gestartet von: heise am 27.06.2024, 17:19:01



Titel: Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation
Beitrag von: heise am 27.06.2024, 17:19:01
(http://newsparadies.de/images/board/x31.gif) Forscher entwickeln Sprachmodelle, die ohne speicherintensive Matrixmultiplikationen auskommen und dennoch mit modernen Transformern konkurrieren können sollen.
Quelle: https://www.heise.de/news/Ressourcenschonend-Effiziente-KI-Sprachmodelle-ohne-Matrixmultiplikation-9780058.html?wt_mc=rss.red.ho.ho.rdf.beitrag.beitrag
(http://www.netzausfall.de/wp-content/heise.jpg)

Stichworte: FPGA, Künstliche Intelligenz, Large Language Model, Transformer, große Sprachmodelle


Newsparadies | Impressum | Datenschutz | Powered by SMF 1.0.7.
© 2001-2005, Lewis Media. Alle Rechte vorbehalten.