Übersicht Home   Forum Forum   Forum Bildergallerien   Chat Chat (0 online)
Hilfe  Hilfe  Suche
 Kalender  Kalender  Benutzerkarte  Karte
Willkommen Gast. Bitte einloggen oder registrieren.
Haben Sie Ihre Aktivierungs E-Mail übersehen?
*
Home > Welt-Ticker > Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation
Seiten: [1] nach unten
News: Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation  (Gelesen 61 mal) Drucken
 
Jetzt News einliefern
 
Weitere News:
IconEuropäisches Bezahlsystem "Wero" startet
Iconheise-Angebot: Last Call: Webentwicklung mit GitHub Copilot und GPT-4o ' programmieren mit KI
IconSoftware Testing: Von Bytes zu Bewusstsein
IconBrasilien: Notlandung mit Dutzenden Verletzen nach Turbulenzen
IconMarktbericht: DAX ohne Elan
IconEinzelhandel beklagt Anstieg von Ladendiebstählen
IconNahost-Liveblog: ++ Hamas-Opfer reichen in USA Klage ein ++
IconÜberzeugt das Asus ROG Ally X im Vergleich zum ROG Ally?
IconUS Supreme Court: Texas' Gesetz gegen Zensur ist Zensur
IconDienstag: Meta verstößt gegen Digital Markets Act, Tianlong-3-Rakete explodiert
Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation
« am: 27.06.2024, 17:19:01 »
   

Forscher entwickeln Sprachmodelle, die ohne speicherintensive Matrixmultiplikationen auskommen und dennoch mit modernen Transformern konkurrieren können sollen.



Quelle: http://www.heise.de
   

Stichworte: FPGA, Künstliche Intelligenz, Large Language Model, Transformer, große Sprachmodelle
Stichworte: FPGA  Künstliche Intelligenz  Large Language Model  Transformer  große Sprachmodelle



Diese News stammt aus dem NewsParadies
 top
 IP: [ Gespeichert ]
 eingeliefert von: heise  Profil anzeigen    facebook  twitter  google+  
0 Mitglieder und 1 Gast betrachten dieses Thema.
« vorheriges nächstes »
Drucken
Seiten: [1] nach oben  
« vorheriges nächstes »
Gehe zu:    top

    Newsparadies | Impressum | Datenschutz | Powered by SMF 1.0.7.
© 2001-2005, Lewis Media. Alle Rechte vorbehalten.