Test GeForce RTX 3080 FE im Test: Nvidia Ampere lässt Turing alt aussehen

Palomino schrieb:
Ich frage mich allerdings was wohl die BoardpartInsgesamt finde ich es klasse dass Nvidia schon ab Werk die Karten auf maximale Leistung getrimmt hab. Warum soll man die Karten künstlich beschränken wenn sie es doch können?
Es ist durchaus noch Raum nach oben da, die FE kann den boost nicht halten.
Bei den Custom Modellen sind wohl einige mit 400W+ Board Power dabei da sollte noch etwas an Performance zu holen sein.
 

Das sieht nach einem Spaß aus mit den versteckten Schrauben und kleinen Laptop Kabeln
 
Sie haben gelogen dass sie doppelt so schnell ist wie eine 2080ti. Und sie verbraucht Unmengen an Strom.
 
StockholmSyndr. schrieb:
Ampere oder: Wie man die Leistungsaufnahme innerhalb nur zwei Generationen fast verdoppelt.
Der Name ist halt Programm. :D
 
  • Gefällt mir
Reaktionen: Philanthrop und Wadenbeisser
StockholmSyndr. schrieb:
Prügelt man eine Turing auf denselben absurden Stromverbrauch, ist Ampere wahnsinnige 15% schneller.
Wow, da kann der Winter ja kommen.
...zu einem Bruchteil des Preises der Vergleichprodukte. Ist es nicht das, wonach in den Foren alle lauthals geschrien hatten?
Jetzt erhalten sie genau das und jetzt ist wieder alles Mist (wir wollen aber mehr Speicher und wir wollen noch mehr Leistung und wir wollen, dass da alles halb so viel Strom verbraucht)...

Ich kanns nicht oft genug betonen.
Die Userschaft ist genau das, was sie den produzierenden Firmen vorwirft: Unersättlich, egozentrisch und latent unzufrieden.
 
  • Gefällt mir
Reaktionen: Oneplusfan, milliardo, DaHell63 und 5 andere
StockholmSyndr. schrieb:
Ampere oder: Wie man die Leistungsaufnahme innerhalb nur zwei Generationen fast verdoppelt.
1080 = 176W -> 3080 = 322W
Das ist allerdings auch dem Big Chip geschuldet, eine GTX780 verbrauchte auch ein ganzes Stück mehr als eine GTX680.
 
  • Gefällt mir
Reaktionen: Philanthrop und MrNejo
Krautmaster schrieb:
wo können sie das? Lediglich beim Takt oben raus. Was die Effizienz angeht kannst du ja mal den Skylake X mit den 7nm Ryzen 2 vergleichen ;) DAS macht der Node aus.
Z.B. beim Gaming weisen sie AMD ganz schön in die Schranken. Unabhängig von der Effizienz sollte man alleine vom Fertigungsprozess eigentlich erwarten können das AMD Kreise um Intel läuft. Tun sie aber nicht. Und wenn man bedenkt welche Wunder hier von 7nm TSMC über den 8nm Samsung erwartet werden, dann ist Intel im Vergleich verdammt effizient mit seinen 14nm.
Ich will damit ja lediglich sagen, dass die Fertigung einfach nichts über die Effizenz oder Leistung aussagen kann. Nur der Verbund von Architektur und Fertigung kann das. RDNA2 ist auf extreme hohe Effizienz getrimmt, sonst wären 12 TFLOPS in den Konsolen nicht machbar. Wenn man das aber auf das Leistungsniveau einer 3080 skallieren möchte, kann es durchaus bedeuten das man enorm an Effizienz einbüßt, einfach weil die Architektur das nicht her gibt. Ich meine die 3080 ist doch das Paradebeispiel, 18% mehr Verbrauch für 5% Leistung (wenn man von den hypotetischen 270 Watt ausgeht). Kann sein das AMD im Grunde effizienter ist, aber den gleiche Weg gehen muss um mitzuhalten.
 
  • Gefällt mir
Reaktionen: .Sentinel.
McFritte schrieb:
Nur wer hat denn mit der Pistole hinter NVIDIA gestanden und sie gezwungen das Speicherinterface der 3080 auf 320 Bit zu beschränken? Die 3080 und die 3090 nutzen den gleichen Chip ( GA102), jetzt erzähl mir nicht die könnten nicht auch eine 3080 mit 384 Bit Speicherinterface und somit 12 GByte Speicher produzieren.

Ich gehe mal sehr stark davon aus, dass in ca. 2 Jahre eine 3080 Super kommt mit 12GB und 384Bit Interface.

BTT:
Also von "Alt aussehen" sehe ich hier, meiner Meinung nach nicht.
Es ist ein ganz normaler Generationssprung. Mehr Leistung (30-50% je nach Spiel, setting und RT aus oder an) durch mehr Stromverbrauch. Die hochgelobene "Effizienz" fressen dann die kommenden Stromrechnungen wieder nach und nach, auf. Also nix neues.
Meiner Definition von "Alt Aussehen" wäre, wenn real 100% mehr Leistung, also die doppelte fps, in allen Szenarien, bei gleichzeitig, deutlich geringerem Stromverbrauch (unter Vollast) als die letzte Gen, hergibt. Dann können wir von "Alt aussehen" reden.

Ich will die Karte überhaupt nicht schlecht reden. Die ist ziemlich gut aber nicht der überflieger, den Nvidia vorgegeben hat zu werden.
 
GrooveXT schrieb:
Mach das mal. Wie soll das Verbot aussehen? Kein PC darf mehr als 500 Watt haben oder 600 oder doch nur 60? Wo ist die Grenze und wie will man das durchsetzen?

So wie man das bei Staubsaugern auch gemacht hat.
Watt Zahl festgelegt, Verkauf und Herstellung damit unterbunden.

Die kriegen das hin. ;)
 
GrooveXT schrieb:
Dann erwartet dich aber eine traurige Zukunft. Du wirst es nicht glauben, aber die Karten werden immer mehr Energie verbrauchen, weil irgendwoher muss die Leistung kommen. Man kann geteilter Meinung darüber sein, ob NV bei der 3080 die letzten 50Watt hätte drauf legen müssen, aber am Ende heisst es trotzdem das der Verbrauch gestiegen ist. So groß werden die Fertigungssprünge auch nicht mehr, dass wir in den nächsten Jahren doppelte Leistung bei gleichem Verbrauch haben werden. Also entweder stellt man die Entwicklung neuer, hochauflösender Monitore und pompöserer Spiele ein oder man wird mit mehr Leistungsaufnahme leben müssen.

Es gab auch mal Zeiten dann hat so ne Highendkarte keine 15 Watt gezogen, die sind aber auch schon ein paar Dekaden her.
du sagst es doch schon selbst
die 50watt hätte man sich sparen können und die deutlich bessere fertigung von tsmc hätte den rest erledigt
man wäre im bereich von 220watt

ich denke nvidia hat den griff zu samsung bereits bereut
mal schauen wie gut sie damit gegen amd aussehen
 
Matthias80 schrieb:
ja ok das es rein Technisch möglich gewesen wäre... sicherlich.
Verstehe die Argumentation.
Jetzt aber so wie die Karte in die Fertigung geht, funktioniert das eben nicht.
Die Beweggründe werden wir wohl nie von oberster Stelle erfahren... spekulieren können wir sicherlich.

Ich tippe mal ganz schwer darauf, dass eine 3080 mit 12 GByte VRam und 384 Bit breiten Speicherbus der 3090 zu sehr auf die Pelle rücken würde. Wenn beide Karten erhältlich sind könnte das ja mal jemand testen. Also den Speicher der 3090 untertakten und auf den Durchsatz der 3080 bringen.
 
  • Gefällt mir
Reaktionen: cruse und Matthias80
Czk666 schrieb:
Sie haben gelogen dass sie doppelt so schnell ist wie eine 2080ti. Und sie verbraucht Unmengen an Strom.
rtx-chart_1.jpg


ich weiß nicht was du meinst. 🧐
 
hamju63 schrieb:
An eine Verdoppelung der Leistung glaube ich nicht so wirklich.
Das wäre dann schon ein sehr gewaltiger Schritt.

Nur halb so gross wie du meinst.
250mm2 Chip VS 450-580mm2 ? Chip.
256 Bit SI VS 320-512Bit SI? oder HMB2?

Sprich der aktuelle Navi 10 ist bloss ein kleiner Mittelklassechip.
Der Neue Navi 21 zielt auf weit oben.
 
  • Gefällt mir
Reaktionen: m2020 und HighPerf. Gamer
Czk666 schrieb:
Sie haben gelogen dass sie doppelt so schnell ist wie eine 2080ti. Und sie verbraucht Unmengen an Strom.
Haben sie nie behauptet, aber wer braucht schon Leseverständnis oder Aufmerksamkeit während der Keynote. Im Internet kann man alles behaupten und hat immer Recht.

Eine 2080 ist keine 2080 Super, und keine 2080 TI. Wenn eine 3080 bis zu doppelt so schnell (engl. up to twice as fast) ist wie eine 2080 , dann ist an der Aussage nichts falsch wenn es Spiele gibt in denen eine 3080 100% mehr Leistung hat, auch wenn es im Durchschnitt nur 50% wären. Denn bis zu und mindestens sind zwei verschiedene Aussagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, .Sentinel., cvzone und 3 andere
McFritte schrieb:
Die 3080 und die 3090 nutzen den gleichen Chip ( GA102), jetzt erzähl mir nicht die könnten nicht auch eine 3080 mit 384 Bit Speicherinterface und somit 12 GByte Speicher produzieren.
Ich sehe hier ne Lücke für eine neue Version, sei es RTX 3080 Ti/SE/Super... oder sonstige Bezeichnung.
 
  • Gefällt mir
Reaktionen: MrNejo und McFritte
Czk666 schrieb:
Sie haben gelogen dass sie doppelt so schnell ist wie eine 2080ti. Und sie verbraucht Unmengen an Strom.
Die aussage zeigst mir aber?!
Sorry das ichs so schreib aber wie kann man soviel blödsinn in nur einem Satz schreiben?
 
  • Gefällt mir
Reaktionen: Trinoo
Zurück
Oben