Bei den GPU Architekturen sind die technischen Daten noch schwerer zu Vergleichen als bei CPU Architekturen. Der Ansatz ist zumeist ein komplett anderer.mylight schrieb:Warum hat die 6900XT denn nur halb soviele Shader wie eine 3080? Verbraucht fast genauso viel Watt? Kann sie die 3080 denn überhaupt schlagen?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
- Ersteller SVΞN
- Erstellt am
- Zur News: AMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
bertlinger
Lieutenant
- Registriert
- Aug. 2008
- Beiträge
- 797
borizb schrieb:470-590 und die Vegas schon vergesse?......
Leider haben hier einige null Plan von Physik mit ihrem Stromverbrauch gelaber.
Wo Leistung erwartet wird, muss Kraftstoff reinfließen, war schon immer so.
Solang die Architektur sich nicht gravierend ändert, sind keine Wunder zu erwarten....weder bei Nvidia noch bei AMD.
S
Strom_ist_böse
Gast
Oder es ist noch schlimmer, als Du zuerst geglaubt hast: Viel Geld für ne High-End-Karte auf den Tisch gelegt und jetzt nutzt du sie nichtmal richtig aus.. :-)mylight schrieb:w meine RTX 3080 übersteigt durchschnittlich beim Zocken nichtmal die 200Watt Marke, von daher ist das alles gar nicht so schlimm wie ich zuerst geglaubt habe
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.181
Hallo zusammen,
@ mylight
So long...
@ mylight
Da hast du den Nagel richtig gut auf den Kopf getroffen, ganz genau, wer`s glaubt....mylight schrieb:Meine 3080 verbraucht niemals 340Watt unter Spiel-Laster. Im Schnitt weit unter 200Watt , haha AMD und effizienter ja wers glaubt...
So long...
woodenforest
Lieutenant
- Registriert
- Feb. 2007
- Beiträge
- 755
Allein der Unterschied von 10gb bei der 3080 zu den 16gb bei Bignavi ist der Rede wert.
Für die Zukunftssicherheit ist das ein enorm großer Faktor.
Ich bin sehr gespannt, mein Geldbeutel steht bereit!
Für die Zukunftssicherheit ist das ein enorm großer Faktor.
Ich bin sehr gespannt, mein Geldbeutel steht bereit!
- Registriert
- Mai 2011
- Beiträge
- 21.276
Tja, dann spielst du wohl mit einem FPS Limiter kombiniert mit einer niedrigen Auflösung und hättest dir das Geld für die 3080 sparen und stattdessen die 3070 nehmen können.mylight schrieb:Meine 3080 verbraucht niemals 340Watt unter Spiel-Laster. Im Schnitt weit unter 200Watt
X
Xtrasmart
Gast
Wir sehen also bei AMD - ohne den nachgerade unanständigen Stromverbrauch der Nvidia Karten schönreden zu wollen - das hier bei der Leistungsaufnahme schon wieder mal bei den Angaben getrickst wird (-> Igor) Da wird nicht der - letztlich per Kühlleistung abzuführende - Verbrauch in Watt angegeben, sondern "nur" das core-package ohne Spannungswandler usw.
Dies und die Angaben von AMD zur tatsächlichen Leistungsfähigkeit in der Vergangenheit, wirft für mich schon wieder ein etwas schales Licht auf die ganze Veranstaltung. Ich hätte in meiner "Zweitkiste" gerne eine RX 6000 - hier warte ich aber definitiv ALLE Tests ab und werde mich nicht zu einem "early adopter"-tum hinreißen lassen.
Dies und die Angaben von AMD zur tatsächlichen Leistungsfähigkeit in der Vergangenheit, wirft für mich schon wieder ein etwas schales Licht auf die ganze Veranstaltung. Ich hätte in meiner "Zweitkiste" gerne eine RX 6000 - hier warte ich aber definitiv ALLE Tests ab und werde mich nicht zu einem "early adopter"-tum hinreißen lassen.
Fighter1993
Vice Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.147
Naesh schrieb:Ich wünsche es AMD echt .... aber so lange da kein ebenbürtiges DLSS oder ähnliches kommt, werden die AMD Karten nur geringe chancen gegen NVIDIA haben.
Mit DLSS + RTX schlägt wohl selbst die 2060 eine 6900XT.
Nicht in 1000 Jahren... Ich denke amd wird da etwas ähnliches bringen, die werden schon gemerkt haben was der Markt will und das Nvidia damit ein sehr gutes Argument hat. Auch wenn es nicht ganz so gut sein wird werden sie weiter dran arbeiten und das ist was zählt.
Gipsy Danger
Ensign
- Registriert
- Okt. 2007
- Beiträge
- 244
Wenn die 6900XTX oder wie auch immer zur 3080 hinschnuppern kann ist das für mich genug und das ding ist gekauft .
Hab immer Rote im Kasten gehabt nie eine Grüne , bin immer gute gefahren mit denen auch wenn die grünen schneller und mehr leistung hatten , das war mir immer latte , und raytraycing kann mich wo die sonne nicht scheint , ich brauch das ned .
Andere frage mal , Sony wollte doch die GPU mit 2,3 fahren warum kann das AMD jetzt mit 2,2 und im boost sogar angeblich mit 2,5 ohne probleme laut den Spekulationen
oder verwechsle ich da was
MFG Mike
Hab immer Rote im Kasten gehabt nie eine Grüne , bin immer gute gefahren mit denen auch wenn die grünen schneller und mehr leistung hatten , das war mir immer latte , und raytraycing kann mich wo die sonne nicht scheint , ich brauch das ned .
Andere frage mal , Sony wollte doch die GPU mit 2,3 fahren warum kann das AMD jetzt mit 2,2 und im boost sogar angeblich mit 2,5 ohne probleme laut den Spekulationen
oder verwechsle ich da was
MFG Mike
- Registriert
- Juni 2015
- Beiträge
- 1.268
@Gipsy Danger Wie genau meinst du das mit dem Takt So ganz verstehe ich den Satz nicht.
Unter dem Gesichtspunkt wirkt seine Aussage wirklich traurig xDStrom_ist_böse schrieb:Oder es ist noch schlimmer, als Du zuerst geglaubt hast: Viel Geld für ne High-End-Karte auf den Tisch gelegt und jetzt nutzt du sie nichtmal richtig aus.. :-)
Ich bin wirklich gespannt, wie weit Igor daneben liegt mit seinen "65W" Restverlusten.
Die kleine N21 mit 220W soll auch bei "65W" Rest liegen, während der 270W Chip das selbe bekommt? How the Faq is this possible.
Spawas skalieren halbwegs linear mit Verbrauch der GPU, die sie vorsorgen müssen.
Die Komplette Rechnung ist schwachsinn....
ComputerJunge
Captain Pro
- Registriert
- Sep. 2018
- Beiträge
- 3.501
Anderer Chip mit weiterentwickelter Technologie?Gipsy Danger schrieb:Andere frage mal , Sony wollte doch die GPU mit 2,3 fahren warum kann das AMD jetzt mit 2,2 und im boost sogar angeblich mit 2,5 ohne probleme laut den Spekulationen
oder verwechsle ich da was
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.940
SV3N schrieb:Die Radeon-RX-6000-Serie soll auf drei Ausbaustufen von Navi 21 („Big Navi“) setzen, wobei die Radeon RX 6800XT – in Form von „speziellen“ Custom-Designs – mit mehr als 2,5 GHz besonders hoch takten soll.
Nice mein Freund.
Nur war Igor nochn bissl fleissiger, und hat damit Indirekt bestätigt, dass die 6800XT verdammt geil wird ^^
https://www.igorslab.de/das-koennen...in-kleiner-blick-in-bios-verraet-die-details/
Das wird echt Spannend
Tyga schrieb:Meine These:
Wird leider kein großer Wurf werden. AMD wird kein gescheites DLSS + Raytracing anbieten. Sie werden mit viel Takt und viel Speicher auftrumpfen. Am Ende hat NVIDIA aber auch die besseren Treiber und RTX Broadcast Features etc.
Wenn dem so wäre, warum haut man vorher dann Zen3 raus? Das macht Markttechnisch keinen Sinn, weil der Aktienwert dann noch weiter runterrauscht und so durch Zen3 aufgefangen werden kann. Sorry aber Nvidia hat weder die besseren Treiber, noch ist das Angebot verlockender bei Grün. Die Karte ist auf Kante genäht (ich sag nur 104°C für die VRAM Bausteine)
foo_1337 schrieb:Wenn $=€, wäre es bei mir auf jeden Fall die 3070 und nicht die 6800. Selbst wenn es 10% sind, was ich für unwahrscheinlich halte, sieht mit DLSS sieht das Ganze komplett anders aus. Und die 8GB VRAM sind dann uch ausreichend. Ohne DLSS kommt eh kein 4k in Frage und für 1440p sollten die 8GB auch lange ausreichen.
Du kaufst also ein schlechtes Produkt (2080Ti Leistung und nur 8Gb VRAM) und verteidigst diesen Kauf mit der Aussage reicht für 4K mit DLSS? Sorry aber wenn man dich ernst nehmen soll, dann solltest du hier kein Downgrade schön reden.. Wenn du gesagt hättest, ich warte auf die 16GB Version, jup hätt ich auch getan. Aber die 3070 mit 8GB ist gegen eine 6800 mit Niveau zwischen 3070 und 3080 und 16GB einfach so spannend wie Gras beim Wachsen zusehen.. Und die Verbreitung von DLSS ist eher Homöopathischer Natur
Zuletzt bearbeitet:
Gipsy Danger
Ensign
- Registriert
- Okt. 2007
- Beiträge
- 244
@evilhunter , naja ich meinte damit die wollten ja die GPU mit mehr leistung fahren als Microsoft bei der Xbox Series X und da hatten sie ja probleme , mit der Wärme oder so wenn ich mich da recht entsinne , warum geht dann das bei der 6000er Serie , oder ist bei den konsolen die GPU und CPU auf einem Soc .
F
foo_1337
Gast
Das stimmt. Denn am Ende profitieren alle davon, auch die nVidia User.Fighter1993 schrieb:Auch wenn es nicht ganz so gut sein wird werden sie weiter dran arbeiten und das ist was zählt.
- Registriert
- Mai 2011
- Beiträge
- 21.276
Er hat ja im heutigen Video das Custom BIOS mit dem MPT gezeigt, da stehen 255W TDP, meine Karte hat da 195W stehen und verbraucht als Ganzes ca 235W.bad_sign schrieb:Die Komplette Rechnung ist schwachsinn....
Das kann man sich ja nun auch schön Milchmädchenmäßig umrechen und dann müsste diese Custom Karte mit ihren 2,57GHz max boost und irgendwas um 2,3GHz Game Clock ca 300W brauchen.
Die Referenz, die dort dann wohl 235W TDP stehen haben wird, läge dann eben bei 280W, realistischer dann 275W als Angabe.
johnieboy
Commodore
- Registriert
- Juni 2007
- Beiträge
- 4.466
@SV3N
Währenddessen bei team grün
https://videocardz.com/newz/nvidia-allegedly-cancels-geforce-rtx-3080-20gb-and-rtx-3070-16gb
Währenddessen bei team grün
https://videocardz.com/newz/nvidia-allegedly-cancels-geforce-rtx-3080-20gb-and-rtx-3070-16gb
NVIDIA allegedly cancels its December launch of GeForce RTX 3080 20GB and RTX 3070 16GB. This still very fresh information comes from two independent sources.
Technically GeForce RTX 3080 20GB and RTX 3070 16GB could launch at a later time, but the information that we have clearly stated that those SKUs have been canceled, not postponed. NVIDIA has already canceled its RTX 3070 Ti model (PG141 SKU 0), so the RTX 3070 16GB (PG141 SKU5) and RTX 3080 20GB (PG132 SKU20) will be joining the list.
- Registriert
- Juni 2015
- Beiträge
- 1.268
@Gipsy Danger
1. Es ist ein SoC
2. Verbrauch, die Konsolen verbrauchen im Ganzen weniger als so manche GPU
3. Ob Sony damit die Leistungskrone wirklich wollte ist schwer zu sagen, aber möglich
4. An der Wärme wird es nicht scheitern, sowohl Sony als auch Microsoft haben gute Kühlungen verbaut
1. Es ist ein SoC
2. Verbrauch, die Konsolen verbrauchen im Ganzen weniger als so manche GPU
3. Ob Sony damit die Leistungskrone wirklich wollte ist schwer zu sagen, aber möglich
4. An der Wärme wird es nicht scheitern, sowohl Sony als auch Microsoft haben gute Kühlungen verbaut
- Registriert
- Mai 2011
- Beiträge
- 21.276
Hmm, kann man jetzt in beide richtungen deuten.johnieboy schrieb:
Entweder glaubt Nvidia, dass man die Karten gegen AMD nicht nötig hat, oder man könnte einfach nicht genug produzieren^^
Ähnliche Themen
- Antworten
- 93
- Aufrufe
- 28.483
- Antworten
- 1.408
- Aufrufe
- 187.639
- Antworten
- 487
- Aufrufe
- 81.286