M
Mustis
Gast
Vll weil "Nvidia Fans" auch ohne HBM Speicher Karten bekommen, die weniger Saft ziehen als die von AMD.Hill Ridge schrieb:NVIDIA "Fans" wollen das sehr oft nicht wahr haben, kA warum das so ist:\
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Vll weil "Nvidia Fans" auch ohne HBM Speicher Karten bekommen, die weniger Saft ziehen als die von AMD.Hill Ridge schrieb:NVIDIA "Fans" wollen das sehr oft nicht wahr haben, kA warum das so ist:\
Kommt ganz drauf an, wie man das Messen will. Hier Mal ein Beispiel pro AMD. Wenn du jetzt deins belegt haben willst gibt es natürlich auch dafür viele gute Beispiele (Vega und GP 104)Mustis schrieb:die weniger Saft ziehen als die von AMD
Wenn ich die gleiche Leistung will muss ich das nunmal. Sonst habe ich eine Karte mit 20 FPS die sehr effizient ist und eine mit 30 die sehr ineffizient ist. Da brauche ich keine Effizienz vergleichen. Ich kaufe die schnellere.Mustis schrieb:wer vergleicht OC gegen Stock?
Nein, war sie eben nicht!Locuza schrieb:Es war eine ernst zu nehmende Folie, dessen simple Aussage aber weder du, noch viele andere verstehen.
Mir doch egal wie groß diese GPUs sind, um die geht es doch nicht!usb2_2 schrieb:Kurz: Polaris 36 CUs bei 232mm^2
Vega 64 CUs bei 484mm^2 (wobei Manche noch immer meinen, dass sie größer ist) .
Was eine Vega GPU teurer macht. Darum ging es doch. Aber scheinbar ist die das jetzt egal.Hill Ridge schrieb:Vega braucht etwas mehr Transistoren, weil Vega höher taktet
Interessant wie du die Folie scheinbar verstehst, aber dennoch als Propaganda auswertest.Hill Ridge schrieb:Nein, war sie eben nicht!
Sie haben HBM mit GDDR verglichen und es so hin gebogen, das HBM mehr Energie braucht.
Blöderweise hatte der HBM in dem Vergleich einen viel viel höheren Datendurchsatz, man hätte mit einem Viertel der Stacks den Durchsatz von GDDR5 erreicht.
Das war reine Progaganda, aber mehr ist von NVIDIA auch nicht zu erwarten...
Du meinst doch diesen Witz?
Anhang anzeigen 701256
Mir doch egal wie groß diese GPUs sind, um die geht es doch nicht!
AMD könnte auch eine Vega GPU mit 36 CUs entwerfen, oder eine andere Anzahl.
Vega braucht etwas mehr Transistoren, weil Vega höher taktet, zumindest sagte das AMD.
Der in den Nvidia Quadro RTX eingesetzte GDDR6-Speicher von Samsung bietet eine Datenrate von 14 Gbit/s pro Pin, was 56 Prozent mehr als beim schnellsten GDDR5-Speicher (9 Gbit/s) sind. Gegenüber den schnellsten GDDR5X-Chips mit 12 Gbit/s fällt der Vorsprung mit 17 Prozent allerdings deutlich geringer aus. Erst mit späteren Generationen soll GDDR6 Datenraten von bis zu 20 Gbit/s erreichen.
Es ist Quatsch, weil die da HBM2 einfach hochgerechnet haben.Locuza schrieb:
SaschaHa schrieb:Die Titan-Serie sollte meiner Meinung nach eingestampft werden, da sie sich bisher zu wenig von der Ti abgesetzt hat und somit Konkurrenz im eigenen Lager fand.
Falls dem so sein sollte, halte ich eine Ti auch mit 12 GB für plausibel, sonst könnten es durchaus wieder 11 werden.
Also wenn du CB schon "Grundkursrechnung" unterstellst, solltest du das, was du zu widerlegen versuchst, wenigstens verstanden haben, und deine eigene Rechnung dieser Kindergarten-Aufgabe zumindest fehlerfrei seinxenoshin schrieb:grundkursrechnung
1 byte = 8 bit
in fast jedem artikel wird immer von gbit geschrieben..transferrates von 20 Gbit/s ~ 2 Gbyte/s, oder 8 Gbit ~ 0.8 Gbyte oder 800 Mbyte speicher kann ja wohl nicht sein.. da wäre jede platte im raid oder ssd schneller
Kann ich mir leider kaum vorstellen. Die 2080 wird ja voraussichtlich auf den "kleinen" Chip mit seinen 3072 Shadern setzen, und müsste sich damit gegen die 1080 Ti mit ihren 3584 Shadern behaupten. Das dürfte auch über den Takt sehr schwierig werden, erst Recht, wenn sie tatsächlich mit einer TDP von ca. 180 Watt daherkommt, wohingegen die Ti ja bereits 250 Watt benötigt.Palatas schrieb:Ich hoffe nach wie vor das die GTX 2080 mindestens 20-30% mehr Leistung wie die GTX 1080ti hat.
usb2_2 schrieb:... was meinst du, wie sich Nvidia freuen würde die Karten 2070, 2070ti, 2075, 2080 oder wie auch immer von 2 GPUs wie bei pascal mit 1070 und 1080 auf 4 zu erhöhen. Dann eben 2 Ausbaustufen an Shadern mit jeweils 8/16GB. Das wäre eine Goldgrube, die dort wohl sehr gerne gesehen wäre.
Palatas schrieb:... das würde jedoch nicht das Problem 4k Gaming / 60 fps lösen :-|
Hill Ridge schrieb:Nicht alles ist dumm, aber manches halt schon und ich bezeichne es dann halt auch so!
Es ist nunmal definitiv dumm, bei einer neuen GPU auf eine alte ISA zurück zu greifen...
Nicht worum denn dann? Ein wenig mehr Informationsgehalt gehört schon in einen Post, auch wenn es die Mods hier offenkundig nicht stört, wenn Regeln missachtet werden.Hill Ridge schrieb:Darum geht es nicht!
Hill Ridge schrieb:Wie kommst du bitte darauf?
Glaubst du echt, TSMC/GF/... verlangen pro Wafer unterschiedliche Preise für GCN4 und GCN5?