Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gerücht: AMD dementiert RX 9070 XT mit 32 GB, aber nicht 32 GB
- Ersteller MichaG
- Erstellt am
- Zur News: Gerücht: AMD dementiert RX 9070 XT mit 32 GB, aber nicht 32 GB
Junge, ich mag AMD wirklich, aber ständig diese halben fadenscheinigen Produktvorstellungen, ich denke wirklich es ist deren Markenzeichen sowas einfach möglichst schlecht hin zu bekommen.
Letzen Jahre waren deren Produkt wirklich gut, ich versteh es wirklich nicht. Das kriegt jeder dritte von der Straße aufgegabelte Dulli doch besser hin.
Freue mich schon auf so eine Freitag vorm Feierabend noch mal was ankündigen komplett aus dem nichts.
Letzen Jahre waren deren Produkt wirklich gut, ich versteh es wirklich nicht. Das kriegt jeder dritte von der Straße aufgegabelte Dulli doch besser hin.
Freue mich schon auf so eine Freitag vorm Feierabend noch mal was ankündigen komplett aus dem nichts.
Es ist halt ein Schneckenrennen. AMD will Nvidia den Vortritt lassen, und Nvidia hat es nicht zu eilig.iPat1337 schrieb:Junge, ich mag AMD wirklich, aber ständig diese halben fadenscheinigen Produktvorstellungen, ich denke wirklich es ist deren Markenzeichen sowas einfach möglichst schlecht hin zu bekommen.
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.998
Crifty schrieb:
- 32gb, dafür ist der Chip zu langsam, warum kein Highend?
- Wird es die auch für Spieler geben?
- Die darf nicht mehr als 500€ kosten, sonst wird eh Nvidia gekauft
1. Mehr kann nicht schaden, treibt aber den Preis unnötig hoch.
24GB und deutlich mehr Leistung = Gekauft von meiner Seite:-)
2. Mehr Vram = Problem = da KI :-(
3. Leider ist das die allgemeine Meinung, leider aber auch zum Teil zu Recht, da DLSS einfach zu stark ist.
Kann man ohne DLSS (und auch RT), dann finde ich AMD deutlich interessanter.. bin von ehemals 4090 auf XTX und bereue es nicht, vor allem mit dem Preisunterschied, den ich dafür bekommen habe.
RT/PT hat mich schlussendlich einfach nicht überzeugt.
"Problematisch" wirds leider in Spielen, wo RT quasi aufgezwungen wird... :-/
fox40phil
Rear Admiral
- Registriert
- Okt. 2008
- Beiträge
- 6.035
Oder ne Profi Karte…so schätze ich es ein.stefan92x schrieb:@CDLABSRadonP... Allerdings. Ich gehe auch fest davon aus, dass die Radeon 9070XT die erwarteten 16GB bekommt. Und die Version mit 32GB halt anders heißen wird.
Natürlich ist es erst Mal die Profikarte.fox40phil schrieb:Oder ne Profi Karte…so schätze ich es ein.
Allerdings könnte AMD je nach Entwicklung mit GDDR7 (3 GB Chips, Preis) unter Zugzwang geraten und muss reagieren. Deswegen auch das präzise formulierte Dementi.
Gamefaq
Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.177
Aus:AMD hat in Person von Marketing-Direktor Frank Azor dementiert, dass es eine Radeon RX 9070 XT mit 32 GB Speicher geben wird. Das heißt nicht, dass RDNA 4 nicht mit 32 GB gekoppelt erscheinen wird, nur eben nicht unter diesem Namen. Azors Dementi lässt also weiterhin Raum für Spekulationen.
Radeon RX 9070 XT mit 16 GB
wird:
Radeon RX 9070 AI "Edition" mit 32 GB
Schon hat der Herr Azor nicht gelogen...er hat nur wie ein Politiker nicht alles gesagt...
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
kryzs
Lt. Commander
- Registriert
- Apr. 2012
- Beiträge
- 1.699
Mit dem Dementi würde ich jetzt ehr meinen das damit die Radeon PRO Wxxxx Modell gemeint, sprich diese wird es in einer 32GB Version geben, also dann sowas wie:Gamefaq schrieb:Aus:
Radeon RX 9070 XT mit 16 GB
wird:
Radeon RX 9070 AI "Edition" mit 32 GB
- Radeon PRO AI 9xxx
- Radeon AI 9xxx PRO
- Radeon AI 9xxx
Unlimited1980 schrieb:Um das volle Deepseek Modell lokal betreiben zu können (ca. 1600GB VRAM), braucht man 50 GPUs mit 32GB VRAM.
Wie kommst Du auf diese Zahlen!?
Und wie kommst Du auf die Idee, es wären Consumer-Karten, die dafür verwendet würden...!?
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
-MK schrieb:Wozu braucht eine Karte in dieser Leistungsklasse 32gb?
Darum.
Oder eben wie schon im Titel steht/stand: Für Machine Learning. Ich würde die Karte begrüßen.
ETI1120 schrieb:Nvidia hat es nicht zu eilig.
Am Ende aber doch...? Oder warum hat man die Multi Flame Generation am Ende doch so kurzfristig rausgedrückt?
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Unlimited1980
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 1.014
habe die quellen angegeben.MaverickM schrieb:Wie kommst Du auf diese Zahlen!?
Ergänzung ()
na, weil es geht und der Preis echt gut ist im vgl. mit den Alternativen, es umzusetzenMaverickM schrieb:Und wie kommst Du auf die Idee, es wären Consumer-Karten, die dafür verwendet würden...!?![]()
Zuletzt bearbeitet:
Unlimited1980 schrieb:weil es geht
Nein. Du sprichst vom "vollen Deepseek Modell". Das ist das R1 Modell. Das lässt sich nicht mit Consumer-GPUs berechnen. Auch nicht mit 50 davon.
Das sagt auch deine Quelle ganz klar. Dort ist die Rede von kleineren, angepassten Modellen, die auch lokal laufen. Auf einer GPU. Aber eben entsprechend weniger leistungsfähig sind, logischerweise.
Daher ist mir Schleierhaft, wie du auf die Zahl "50" kommst.
Unlimited1980
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 1.014
Ja das mit dem vollen Deepseek Modell ist ne theor. Berechnung.
Obs geht oder nicht, keine Ahnung.
Ich denke, das hat bislang noch keiner, der es ausgetestet hat veröffentlicht, ob es geht.
Theor. spricht eigentlich nichts dagegen, das so weit auszureizen.
Auf jeden Fall gibt es erfolgreich laufende Multi GPU-Systeme für die kleineren Destillationen. 70B z.B.
Im Endeffekt, gehts mir ja nicht darum, die echte Machbarkeit zu zeigen, sondern grob einen Multiplikator zu finden, für eine Preisberechnung bzw. einen Preisvergleich.
Da schneidet die 7900 XTX in Relation zur 5090 super gut ab mit den aktuellen Marktpreisen und daher kann ich mir gut vorstellen, es wird Leute geben, die versuchen ihr Glück mit einem MultiGPU 7900 XTX System.
Was dann wiederum die 7900 XTX verknappt.
Im Endeffekt versuchen die Leute derzeit Deepseek auf allem laufen zu lassen, was nicht niet und nagelfest ist...
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Irgendwo habe ich heute auch was gefunden von einem, der hat ne 70B distille auf 4x rtx 3080 laufen lassen![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
ah habe es gefunden:
brauchbare leistung!
Performancevergleich (alles 70B)
4x 3080 Ti: 9 token/s
2x 3090: 17 token/s
2x 4090: 19 token/s
1x NVIDIA A40: 12 token/s
1x NVIDIA A100 SXM 80GB : 23 token/s
Also das kann ich hier gar nicht oft genug sagen: Die 4090 und ganz besonders die 3090 schlagen sich hier extrem gut. Besonders im direkten Vergleich mit "Profikarten" von NVDA!
Absolut CRAZYYYYYY!
![Heilig :heilig: :heilig:](/forum/styles/smilies/heilig.gif)
die zahl 50 ergibt sich aus dem benötigten VRAM bei FP16!
Bei 4bit quantization käme man mit 13 Karten hin.
Also während 50 Karten noch gaga klingt, kann man 13 Karten fast schon für den Hausgebrauch einer 5 Mann SOftwareschmiede in Erwägung ziehen!
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
ich geh vom größten Deepseek Modell aus, was man lokal laufen lassen kann, meine das 671B, falls es da missverständnis gibt.
Dir muss man echt jedes Ding ins detail erklären...![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Also das ist ja auch ziemlich nice:
https://www.reddit.com/r/LocalLLaMA/comments/1idseqb/deepseek_r1_671b_over_2_toksec_without_gpu_on/
Also für den "Heimgebrauch" sind 2 Token/s echt gut genug. Ist schon krass, wie effizient Deepseek arbeitet, da hat man fast schon das Gefühl, Rechenleistung ist bestenfalls zweitrangig.
Also wenn man dafür inzwischen nicht mal mehr ne GPU benötigt... crazy,... aber die GPUs werden trotzdem nachgefragt, weil sie ja aus Firmensicht im vergleich zu menschl. Arbeitsstunden super billig sind.
Obs geht oder nicht, keine Ahnung.
Ich denke, das hat bislang noch keiner, der es ausgetestet hat veröffentlicht, ob es geht.
Theor. spricht eigentlich nichts dagegen, das so weit auszureizen.
Auf jeden Fall gibt es erfolgreich laufende Multi GPU-Systeme für die kleineren Destillationen. 70B z.B.
Im Endeffekt, gehts mir ja nicht darum, die echte Machbarkeit zu zeigen, sondern grob einen Multiplikator zu finden, für eine Preisberechnung bzw. einen Preisvergleich.
Da schneidet die 7900 XTX in Relation zur 5090 super gut ab mit den aktuellen Marktpreisen und daher kann ich mir gut vorstellen, es wird Leute geben, die versuchen ihr Glück mit einem MultiGPU 7900 XTX System.
Was dann wiederum die 7900 XTX verknappt.
Im Endeffekt versuchen die Leute derzeit Deepseek auf allem laufen zu lassen, was nicht niet und nagelfest ist...
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Irgendwo habe ich heute auch was gefunden von einem, der hat ne 70B distille auf 4x rtx 3080 laufen lassen
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
ah habe es gefunden:
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
brauchbare leistung!
Performancevergleich (alles 70B)
4x 3080 Ti: 9 token/s
2x 3090: 17 token/s
2x 4090: 19 token/s
1x NVIDIA A40: 12 token/s
1x NVIDIA A100 SXM 80GB : 23 token/s
Also das kann ich hier gar nicht oft genug sagen: Die 4090 und ganz besonders die 3090 schlagen sich hier extrem gut. Besonders im direkten Vergleich mit "Profikarten" von NVDA!
Absolut CRAZYYYYYY!
![Heilig :heilig: :heilig:](/forum/styles/smilies/heilig.gif)
die zahl 50 ergibt sich aus dem benötigten VRAM bei FP16!
Bei 4bit quantization käme man mit 13 Karten hin.
Also während 50 Karten noch gaga klingt, kann man 13 Karten fast schon für den Hausgebrauch einer 5 Mann SOftwareschmiede in Erwägung ziehen!
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
ich geh vom größten Deepseek Modell aus, was man lokal laufen lassen kann, meine das 671B, falls es da missverständnis gibt.
Dir muss man echt jedes Ding ins detail erklären...
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Also das ist ja auch ziemlich nice:
https://www.reddit.com/r/LocalLLaMA/comments/1idseqb/deepseek_r1_671b_over_2_toksec_without_gpu_on/
Also für den "Heimgebrauch" sind 2 Token/s echt gut genug. Ist schon krass, wie effizient Deepseek arbeitet, da hat man fast schon das Gefühl, Rechenleistung ist bestenfalls zweitrangig.
Also wenn man dafür inzwischen nicht mal mehr ne GPU benötigt... crazy,... aber die GPUs werden trotzdem nachgefragt, weil sie ja aus Firmensicht im vergleich zu menschl. Arbeitsstunden super billig sind.
Zuletzt bearbeitet:
Unlimited1980 schrieb:a das mit dem vollen Deepseek Modell ist ne theor. Berechnung.
Obs geht oder nicht, keine Ahnung.
Deine Berechnung vollkommen unrealistisch.
Als grobe Einordnung kannst Du dir ja mal den Artikel hier anschauen:
https://www.computerbase.de/news/ap...von-deepseek-tatsaechlich-gekostet-hat.91217/
Für das bloße Ausführen des fertig berechneten Modells werden natürlich weniger Ressourcen als für das Training des Modells benötigt. Trotzdem lässt man das R1 Modell nicht einfach mal so lokal als Privatmann laufen...
Die in deinem verlinkten Artikel erwähnten Modelle sind alle deutlich bis massiv abgespeckt.
Deine weitere Berechnung wie Du dann den potentiellen Preis einer fiktiven 32GiB 9070 XT berechnest, wird dann auch nicht besser, wenn ich das mal so sagen darf...
Unlimited1980
Lieutenant
- Registriert
- Apr. 2009
- Beiträge
- 1.014
@MaverickM ganz ehrlich, ich werde das gefühl nicht los du verstehst mich die ganze zeit trollhaft absichtlich falsch, werde dich künftig ignorieren
Unlimited1980 schrieb:ich werde das gefühl nicht losm du verstehst mich die ganze zeit trollhaft absichtlich falsch
Nein, deine Beiträge ergeben nur hinten und vorne keinen Sinn. Du erfindest Zahlen oder legst willkürlich irgendwelche Parameter an, ohne ersichtliche Grundlage.
Diese Kommentare kommen daher, weil die Menschen in diesem Forum es immernoch nicht verstanden haben. Und die Anzahl an Likes auf deinen Kommentar, unterstreicht diesen Umstand noch viel mehr.Crifty schrieb:Ich sehe schon die Kommentare:
- 32gb, dafür ist der Chip zu langsam, warum kein Highend?
- Wird es die auch für Spieler geben?
Wenn selbst AMD sagt:
...dann frage ich mich was daran so schwer zu verstehen ist? Niemand braucht 32GB auf einer consumer GPU. Es treibt die Kosten unnötig in die Höhe und bringt keine Vorteile.Eine RX 9070 XT mit 32 GB hauptsächlich für AI
Ergo - diese "Speicher-Kommentare" sind immer nur nichts weiter als unreflektiertes Nvidia-Gebashe von denjenigen die kein Geld für eine RTX 5090 haben oder keine bekommen haben und sich daher wie eingeschnappte Kinder benehmen, denen man den Lutscher weggenommen hat.
Beschwert euch auch mal über andere Dinge, anstatt immer nur fortwährend ein und die selbe Leier zu spielen... dass muss doch langsam echt mal peinlich werden?
1) Viele Monitore/Fernseher haben immernoch kein HDMI 2.1 (für Konsolen z.B. wichtig)
2) Viele Mainboards/Gehäuse keine oder viel zu wenige USB-C Verbindungen oder nur hinten
3) Geräte haben nur noch fest verbaute Akkus
4) Geplante Obsoleszenz wird immer schlimmer
Das sind jetzt nur ein paar Beispiele die mir spontan einfallen, wo Stillstand herrscht oder es immer schlechter wird, seit Jahren. Die Preise werden dennoch immer höher.
Prozessoren sind teurer. 700-800 Euro für ein Consumer High-End Modell, wtf? Und ich rede nicht von der UVP...
Mäuse für 150 Euro, Tastaturen für 200-300 Euro, Gamepads für 200-300 Euro, Lenkräder für 500-2000++++ Euro, CPU Luftkühler für 150+++ Euro. Früher hatte ich einen 35 Euro Kühler von Scythe, der war High-End. Schreibt doch mal ne Mail an die Hersteller dieser Peripherien und Teile, anstatt immer nur "Nvidia" zu rufen.
Aber ja, AMD GPUs sind ja so viel besser als die von Nvidia... total konkurrenzfähig und die Frametimes und der Funktionsumfang sind ein absoluter Traum ... /Ironie off. AMD bekommt seit Jahrzehnten seine Frametimes nicht in den Griff... seit Jahrzehnten!!!!!!!!!!!!
Wer High-End haben will, muss eben hohe Preise bezahlen. Das war immer so, ist jetzt so, und wird immer so bleiben. Und wer nicht verstehen will, dass seine RTX 4060, wenn sie 12 statt 8GB hat, seine RTX 4070, wenn sie 16 statt 12GB hat, und seine RTX 5090, wenn sie 1248912487128731237182712873 Exabyte VRAM hat, auch nicht einen einzigen Prozent schneller in Fortnite sein wird.
Ähnliche Themen
- Antworten
- 59
- Aufrufe
- 7.885
- Antworten
- 213
- Aufrufe
- 17.154
- Antworten
- 184
- Aufrufe
- 18.128
- Antworten
- 60
- Aufrufe
- 10.526