News Nvidia Gaming Ampere: Angeblicher Kühler der GeForce RTX 3080 fotografiert

Affe007 schrieb:
Naja zur Wahrheit gehört aber noch die Leistung......
Die Wahrheit ist das die Framerate für den Stromverbrauch irrelevant ist, das was du meinst ist die Effizienz.
Bei dem Gejammer wurde schließlich auch mit der Hitze- und Geräuschentwicklung argumentiert die hier offensichtlich ebenfalls irrelevant geworden ist.
Damit ist das Geblubber um das Thema also nichts anderes als schön Rederei.

Mich persönlich juckt das im übrigen recht wenig da ich seit Athlon64 Zeiten mit 125W für die CPU und 300W für die GPU rechne.
 
  • Gefällt mir
Reaktionen: Mcr-King
Summerbreeze schrieb:
Wenn Igor wirklich recht hat, dann haben sie den nächstkleineren Chip welcher für die 3080 gedacht war gecancelt. Das macht man ja auch nicht auf blauen Dunst hinaus.
"Poor AMD" scheint dieses Jahr also wirklich mal was im Ärmel zu haben.
Warum aus einer Position der Stärke heraus sofort mit der Dicken Bertha rumballern, wenn man erst "kürzlich" dem Käufer beigebracht hat, wie Super ein nachgeschobener Super Namenszusatz sein kann (vor allem unter dem Aspekt "Anpassung der Einnahmen", falls AMD leider doch nicht den großen Wurf landen sollte) und den Gegner erst mal kommen lassen kann, um ihn zu ködern?
 
  • Gefällt mir
Reaktionen: Mcr-King
Summerbreeze schrieb:
Ich werfe den ersten Stein! :)

Bester Film aller Zeiten! :daumen:
 
  • Gefällt mir
Reaktionen: angband1, PS828 und jemandanders
catch 22 schrieb:
Warum aus einer Position der Stärke heraus sofort mit der Dicken Bertha rumballern, wenn man erst "kürzlich" dem Käufer beigebracht hat, wie Super ein nachgeschobener Super Namenszusatz sein kann (vor allem unter dem Aspekt "Anpassung der Einnahmen", falls AMD leider doch nicht den großen Wurf landen sollte) und den Gegner erst mal kommen lassen kann, um ihn zu ködern?

wieviele hatten nicht genau das auch beim Thema CPU Intel vs amd gedacht.....🤪
 
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
Bei dem Gejammer wurde schließlich auch mit der Hitze- und Geräuschentwicklung argumentiert die hier offensichtlich ebenfalls irrelevant geworden ist.

Du siehst schon wieviel Aufwand Nvidia hier bei der Karte betreibt und hast hoffentlich erlebt was AMD bei der Radeon VII hingerotzt hat oder?

Nichts von den Punkten ist irrelevant, aber am Ende kommt es drauf an, was die Konkurrenz bei diesem Leistungswert vorzuweisen kann. Eine Karte die laut ist, viel Strom verballert und im Vergleich trotzdem nur wenig leistet will niemand, egal von welchen Hersteller sie kommt.

Wenn die Tabellen dann aber so aussehen, ist jegliche Kritik berechtigt.
1591817463722.png

1591817190859.png

https://www.computerbase.de/artikel...ite-4#diagramm-performance-pro-watt-2560-1440
 
Zuletzt bearbeitet:
Mcr-King schrieb:
Nee denke ich nicht denke die gehen bei 450€ los. 😉

die ersten drei karten ist jeweils der große chip. da wird nix unter 900€ passieren.

wann die kleinen karten kommen ist noch nicht bekannt. vermutlich so 1-3 monate später.


xexex schrieb:
Du siehst schon wieviel Aufwand Nvidia hier bei der Karte betreibt und hast hoffentlich erlebt was AMD bei der Radeon VII hingerotzt hat oder?

der kühler der R7 war doch in ordnung für ein 2-slot kühler? da war nur bissl viel aluverkleidung außen rum.

nvidia hat sich auch viel aufwand mit der rtx 2060 gemacht. 40 schrauben? kleber? pcie 8pin kabelverlängerung? stabiles stück overengineerter käse, wenn du mich fragst.

und ob der neue kühler überhaupt was taugt, muss sich erst noch zeigen.

ich habe an den derzeitigen leaks einige kritikpunkte. aufwand - ja - aber auch gut? würde ich nicht sagen. sieht nach einer 2060 lösung aus.

https://www.computerbase.de/forum/t...80-fotografiert.1950657/page-24#post-24239776
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Die paar Watt die meine AMD karte mehr frisst spüre ich net mal :D dafür spüre ich die Mehrleistung gegenüber einer RTX 2060 Super ;)
 
  • Gefällt mir
Reaktionen: Mcr-King
Wadenbeisser schrieb:
Sorry aber ich lache mich gerade scheckig wo auf einmal selbst 350W für eine Grafikkarte kein Problem ist solange sie von nvidia ist, wobei die Radeons selbst mit 300W als Stromfresser verschrieen wurden. :lol:

Stimmt, das ist richtig lustig... vor allem wenn man sich aktuell die 2080Ti Custom-Prügel mit 400 Watt BIOS im Vergleich zur "normalen" anschaut. Aber AMD säuft zu viel... :freak:

Bis zu 350 Watt wird interessant, aber NUR wenn die Leistung entsprechend stimmt. Dazu wird das verdammt teuer mit solchen riesigen Chips. Mal schauen wer von beiden mein Geld bekommt, wenn mir nix zusagt tut es die VII ja auch noch länger.

@xexex natürlich die Auflösung rausgepickt die für die eigene Argumentation am besten ist... :stacheln:
 
  • Gefällt mir
Reaktionen: Mcr-King
@ahuev0

Stimmt, solch ein Vorgehen "gewinnt" nicht immer. Es ist aber letztendlich wie beim Texas Hold-Em das, was den statistischen Unterschied zwischen einem professionellen Spieler und einem schlechtem (Glücks-) Spieler ausmacht.
Damit möchte ich nicht sagen, dass AMD nun ein schlechter Spieler sei, der Glück gehabt habe, was in Sachen Ryzen Abgrund tief falsch wäre, hat man mit dem ersten Zen bereits ein strukturiertes und zu einem guten Ergebnis führendes System gesehen, entsprechendes auch bei RDNA.
Dennoch gehört zu dem CPU Erfolg von AMD mit Zen auch der Misserfolg von Intel dazu. Momentan würde ich sagen, dass AMD eine bessere GPU bringen wird, die RDNA locker in den Schatten stellt. Aber was dieser Schatten wert sein wird, hängt zu einem großem Teil an Nvidia ab.

Wenn einer der beiden den nächsten Über-Kracher raus bringt, dann kann mit einer "Super" Variante nachträglich ordentlich an der Preisschraube nach oben gedreht werden. Die, die mehr "more Power" brummen, werden es kaufen (2080 Super & TI)
Sollten die neuen GPU in etwa gleich stark sein, kann eine "Super" Lösung helfen sich abzusetzen, auch auf die Gefahr hin, dass der andere ebenfalls eine Super Lösung hat. Auf jeden Fall kann man so auf der Ebene des Preises ein zweites effektives Schlachtfeld eröffnen. (2060 vs. 5700 & 2070 vs. 5700XT)
Sollte man hinten liegen, kann man so zumindest einfach leicht bei Preis und Performance nachjustieren, und so zumindest bei P/L noch gleichzuziehen.

Mit der Dicken Bertha hingegen deckt man Preflop seine Hand auf und überlässt dem Gegner die Initiative, während der Flop gelegt wird.
 
  • Gefällt mir
Reaktionen: ahuev0
xexex schrieb:
Du siehst schon wieviel Aufwand Nvidia hier bei der Karte betreibt und hast hoffentlich erlebt was AMD bei der Radeon VII hingerotzt hat oder?
Und was hat dein dolles Posting jetzt mit dem Verbrauch an sich zu tuen den du darin scheinbar krampfhaft versuchst zu relativieren?
Die VII hat mit ihrem Kühlsystem in erster Linie 2 Probleme.

1.) Der Chip hat offenbar für seine Energiedichte einen zu schlechten Wärmeübergang, wodurch die Hotspot Temperatur so sprunghaft ansteigt und die Lüfter entsprechend stark aufdrehen damit er nicht zu sehr gedrosselt wird.

2.) Dem potentiell leistungsfähigen Kühlsystem wird von der Verkleidung sprichwörtlich die Luft abgeschnürt weil große Teile der Verkleidung dem Luftstrom im Weg sind. Der Großteil der Abluft wird gegen das Board gepustet und damit zwangsläufig wieder eingesaugt. Verdammt schlecht für die Kühlwirkung.

Der VII merkt man hier vor allem 2 Sachen an. Der Chip wurde für diese Rahmenbedingungen nicht entwickelt und die Karte war alles andere als von langer Hand geplant.

Was glaubst du wohl welche Relevanz Punkt 1 haben wird wenn nvidia ebenfalls auf 7nm wechselt und die Packdichte noch mehr erhöhen will..?
 
Dass nächste Problem ist Wasserkühlung entweder arsch teuer oder nicht möglich vielleicht sogar absichtlich von NV. 😉

Dass der RAM auch auf der anderen Seite der Platine hängt habe ich schon fast gedacht und @igor meine Infos sprechen von RTX3090 RTX3080ti RTX3080.

Was interessant ist dass die RTX3070 und RTX3060 erst nächste Jahr kommen sollen.
 
Wadenbeisser schrieb:
Und was hat dein dolles Posting jetzt mit dem Verbrauch an sich zu tuen den du darin scheinbar krampfhaft versuchst zu relativieren?

Wenn Hersteller A 1000W verbraucht und Hersteller B 500W bei gleicher Leistung, ist Hersteller A zu kritisieren. Wenn beim Hersteller A mit 1000W die Karte auch doppelt so viel leistet, wie die vom Hersteller B, dann ist daran nichts zu kritisieren. Wem das zu viel ist, kauft sich eine Karte mit weniger Verbrauch und Leistung.

Es liegt immer im Auge des Betrachters, setzt man auf Effizienz, sind jegliche High-End Karten absolute Stromschlucker.

Wadenbeisser schrieb:
Die VII hat mit ihrem Kühlsystem in erster Linie 2 Probleme.

Es ist dem Kunden egal welche Probleme die Karte hat, er will keine Bastelaufgabe sondern ein fertiges Produkt kaufen. Wenn die Karte dann in so einem Zustand auf den Markt kommt, dann kann man da auch nichts mehr schön reden und jegliche Kritik ist berechtigt.

Wenn die 3090 von Nvidia 350W+ verbrät und dabei auch noch die 50db(A) Marke bei der Lautstärke knackt, dann gibt es auch hier wenig zu verteidigen. Es gibt Sachen für die kann man nichts, viel Leistung benötigt auch viel Energie, ein Produkt mit einem erträglichen Kühler auf den Markt zu bringen, ist aber immer drin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan
duskstalker schrieb:
die ersten drei karten ist jeweils der große chip. da wird nix unter 900€ passieren.
So sieht’s aus! Schaut man sich allein nur das jetzige Kühldesign an, sollten sich diese Spekulationen Bewahrheiten, bekommt man eine RTX 3080 wohl zu einem Preis der jetzigen RTX 2080Ti. Die RTX 3080Ti wird dann irgendwo bei 1600,00 bis 2.200,00 Euro liegen und die RTX 3090 liegt im Preis vermutlich bei einer jetzigen RTX Titan. Die RTX Ampere Titan wird dann nochmal etwas teurer, wie die RTX 3090, aber wer das absolute Gaming Flaggschiff will, der muss halt auch den absoluten Gaming Preis bezahlen, was für Nvidia nichts Neues ist.

Wer früher immer eine GTX 1070 oder RTX 2070 gekauft hat, bekommt dann vermutlich bei Ampere zum Preis von 500,00 +X nur noch eine RTX 3060 und die neue Ampere 3070 ist dann für die Käufer, die bisher eine RTX 2080 hatten, was den Preis betrifft. Ich bin echt mal gespannt, wann bei Nvidia die Preisblase mit den Grafikkarten platzt, meine Vermutung ist, allzu lange wird es nicht mehr dauern. Durch die anstehende Rezession, welche durch das Corona Virus ausgelöst wurde, deren Folgen wir wohl erst so langsam zum Ende des Jahres anfangen werden zu spüren, wird man das auch irgendwann bei Nvidia in deren Umsatzzahlen zu sehen bekommen.

Aber wie sagt die Politik so schön, wenn schon untergehen, aber dann wenigstens mit "Wums"! :daumen:
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Benji21 schrieb:
Stimmt, das ist richtig lustig... vor allem wenn man sich aktuell die 2080Ti Custom-Prügel mit 400 Watt BIOS im Vergleich zur "normalen" anschaut. Aber AMD säuft zu viel... :freak:
Das lustigste das ich hier gelesen hatte war das Gejammer um die Referenz 290x und es war deshalb so lustig weil die bei Standard Einstellung (begrenzte Lüfterdrehzahl) kaum über 230W hinaus kam und so auch bei weitem nicht so laut war wie nur allso gern behauptet wird. Läßt man das Kühlsystem natürlich voll aufdrehen um den Chip ungedrosselt laufen zu lassen, ja da gehen Lautstärke un Effizienz so ziemlich vor die Hunde und schaue ich mir die eng stehenden Lamellen des hier gezeigten Kühlsystems an dann kann man getrost davon ausgenen das die auch kein Leisetreter sein wird.
Eng stehende Lamellen bieten zwar viel Kühlfläche auf vergleichsweise kleinen Abmaßen, erfordern aber auch Lüter die den höheren Gegendruck kompensieren können und dafür brauchen die nicht zuletzt Drehzahl.
Ergänzung ()

@xexex

Du willste s nicht kapieren, oder?
Für den Strombedarf der Karte und damit der Stromversorgung und dem Kühlsystem ist es völlig latte was das Ding für eine Framerate ausspuckt. 300W bei 60 FPS sind genauso laut, heiß und Stromfressend wie 300W bei 120 FPS.
Damit wäre die Jahre lang geschwungene Verbrauchskeule bei jenen Usern wie erwartet nur ein pseudo Argument gewesen.
 
  • Gefällt mir
Reaktionen: Benji21
xexex schrieb:
Wenn Hersteller A 1000W verbraucht und Hersteller B 500W bei gleicher Leistung, ist Hersteller A zu kritisieren. Wenn beim Hersteller A mit 1000W die Karte auch doppelt so viel leistet, wie die vom Hersteller B, dann ist daran nichts zu kritisieren. Wem das zu viel ist, kauft sich eine Karte mit weniger Verbrauch und Leistung.

Es liegt immer im Auge des Betrachters, setzt man auf Effizienz, sind jegliche High-End Karten absolute Stromschlucker.



Es ist dem Kunden egal welche Probleme die Karte hat, er will keine Bastelaufgabe sondern ein fertiges Produkt kaufen. Wenn die Karte dann in so einem Zustand auf den Markt kommt, dann kann man da auch nichts mehr schön reden und jegliche Kritik ist berechtigt.

Wenn die 3090 von Nvidia 350W+ verbrät und dabei auch noch die 50db(A) Marke bei der Lautstärke knackt, dann gibt es auch hier wenig zu verteidigen. Es gibt Sachen für die kann man nichts, viel Leistung benötigt auch viel Energie, ein Produkt mit einem erträglichen Kühler auf den Markt zu bringen, ist aber immer drin.
Ich für meinen Teil, werde jede Grafikkarte in der >300W Klasse kritisieren. Egal ob Leise oder Ohrenkrebsliga.
So nötig kann ich die Frames gar nicht haben.
Sollens ihre Arbeit richtig machen. Dann brauchts auch keine 3-400W. Egal welcher Hersteller.
 
  • Gefällt mir
Reaktionen: alteseisen
@xexex

Nanu? Der Rest hatte für deine Argumentation wohl nicht mehr gepasst und wurde deshalb weggelassen, was?
 
xexex schrieb:
Laut ist eine Karte nur, wenn das Kühlsystem Mist ist.
Aber irgendwie ist die Entwicklung des Kühlers schon witzig, der Chip der GPU wird immer kleiner und das Kühlsystem wird immer wuchtiger und die Grafikkarte dadurch größer. Nachdem man ja schon die PCIe Slot mit Metall verstärkt hat und immer mehr Grafikkartenstützen fürs Gehäuse auf den Markt kommen, damit das MB und deren PCIe Slots überhaupt noch das Gewicht der Grafikkarten halten kann, wird es wohl langsam Zeit, neue Kühl - Innovationen zu entwickeln. Irgendwie scheint mir das jetzige System so langsam am Limit angekommen zu sein! :daumen:
 
Zurück
Oben