Übersicht Home   Forum Forum   Forum Bildergallerien   Chat Chat (0 online)
Hilfe  Hilfe  Suche
 Kalender  Kalender  Benutzerkarte  Karte
Willkommen Gast. Bitte einloggen oder registrieren.
Haben Sie Ihre Aktivierungs E-Mail übersehen?
*
Home > Welt-Ticker > Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation
Seiten: [1] nach unten
News: Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation  (Gelesen 42 mal) Drucken
 
Jetzt News einliefern
 
Weitere News:
IconKraftwerk Ensdorf: Sprengung war erfolgreich
IconAfD-Parteitag geht weiter - die Proteste auch
IconTödliche Droge Fentanyl ist auch in Deutschland angekommen
IconDeutsche Rüstungsexporte steuern auf neuen Rekord zu
Iconheise+ | Digitale Wetterfrösche: Wetter-Apps mit Datenquellen-Wahl für iPhone und iPad
IconEva Longoria: Hollywood hinkt hinterher
IconNick Cave: Das wünscht er sich für seine Kinder
Icon"Grey's Anatomy": Teddy kämpft um ihr Leben, Arizona kehrt zurück
IconKI-Technik als zweifelhafter Messias ' ein Kommentar
IconTV-Tipps am Sonntag
Ressourcenschonend: Effiziente KI-Sprachmodelle ohne Matrixmultiplikation
« am: 27.06.2024, 17:19:01 »
   

Forscher entwickeln Sprachmodelle, die ohne speicherintensive Matrixmultiplikationen auskommen und dennoch mit modernen Transformern konkurrieren können sollen.



Quelle: http://www.heise.de
   

Stichworte: FPGA, Künstliche Intelligenz, Large Language Model, Transformer, große Sprachmodelle
Stichworte: FPGA  Künstliche Intelligenz  Large Language Model  Transformer  große Sprachmodelle



Diese News stammt aus dem NewsParadies
 top
 IP: [ Gespeichert ]
 eingeliefert von: heise  Profil anzeigen    facebook  twitter  google+  
0 Mitglieder und 0 Gäste betrachten dieses Thema.
« vorheriges nächstes »
Drucken
Seiten: [1] nach oben  
« vorheriges nächstes »
Gehe zu:    top

    Newsparadies | Impressum | Datenschutz | Powered by SMF 1.0.7.
© 2001-2005, Lewis Media. Alle Rechte vorbehalten.