News Wochenrück- und Ausblick: Navi von AMD und Super von Nvidia kurz vor Marktstart

  • Gefällt mir
Reaktionen: Klassikfan
@9t3ndo

Danke für die Info.

Aber ich brauche derzeit keine neue Graka - meine 6GB 7970 reicht für FHD mit ordentlichen Settings.

Wenn was kommt - was Neues - werde ich den kompletten "Unterbau" meines Systems ändern.

Und da warte ich mal ab was KnolleJupp die nächsten 3-4 Wochen so alles in seinem Post ansammelt.
 
  • Gefällt mir
Reaktionen: fox40phil und 9t3ndo
Alles wie vor drei Jahren:
Navi=Polaris
7nm=14nm
Vega-f=Vega
7nm plus=14-nm-LPP

Nur hatte damals AMD mit GCN einen leichten Vorteil, aber diesmal hat nvidia mit RTX einen echten disruptiven Gamechanger, dessen Bedeutung man vielleicht vergleichen kann mit Adaptive Sync auf dem Displaymarkt, d.h. wer einmal "mit" gespielt hatte, der wird Gaming "ohne" fade finden. Bis nächstes Jahr wird es eher schwieriger für AMD GPUs ohne Raytracing.
 
Schließe mich der Frage von Reset90 an:

ab wann dürfen Tester über den Ryzen 3000 berichten?
 
  • Gefällt mir
Reaktionen: 9t3ndo, Schumi1984, Justuz und eine weitere Person
Interessanter Weise wurden auch einmal die Effizienzangaben beider GPU-Entwickler von Igor auf Tom'sHardware.de beleuchtet, basierend auf nVidias - scheinbar bewusst kundentaeuschenden - Angaben ;).

Der Artikel (oder das nachfolgende Video) ist m.E. fast schon Pflichtprogramm fuer den GPU-Interessierten (uebrigens finde ich es grossartig, dass sich jemand/Igor die Muehe gemacht hat das aufzubroeseln bzw. dem im Detail nachzustoebern :cool_alt: ), und ich bin schon gespannt, was - zur Ueberraschung einiger Effizienzler hier - dann am Ende dabei heraus springen wird (welche Ergebnisse erste Tests zu Navi zutage foerdern werden):


Natuerlich duerfte nVidia insgesamt da noch verbrauchstechnisch vorne liegen (alleine schon, weil man ja einen Karten-Vergleich (RTX) Turing zu Navi vor dem Hintergrund der 12nm zu 7nm Fertigung beruecksichtigen muss), aber AMD/RTG scheinen mit Navi/RDNA(1)-Architektur auf einem guten Weg zu sein, und es ist interessant zu sehen wie unterschiedlich die eingesetzten Umsetzungen und Beschraenkungen doch sind.
 
  • Gefällt mir
Reaktionen: fraqman und ovi
@spawa93
RT ist in der ersten Gen sowas von egal, vorallem RTX, was nicht auch unter DXR vernünftig funktioniert ist imho. nix.
Da NV hier ihre eigene suppe kocht alla gameworks können die das auch alleine durchdrücken im markt, um so lächerliche das Lederjacke "eingeschnappt" war das AMD RT derzeit links liegen lässt.
Dazu kommt das es selbst mit RTX kaum spiele gibt.
Das Feature ist nutzlos wie seinerzeit diverse Hardwarefeatures von Hawaii.

Wenn es relevant wird wird auch AMD RT bieten, nur ist der PC schon nicht mehr die Krönung wenn es um die Software geht, da ist selbst die PS4-Xbox vorraus.
Und auch hier ist es WEIT wichtiger das die Konsolen RT Supporten und nicht der PC um für Verbreitung zu sorgen. Dabei ist es egal das der Detailgrad der Konsolen mit RT wohl niedriger liegen wird als beim PC. :rolleyes:

Ich handhabe das so das ich alle Spiele mit RT liegen lasse und 1-2 RT-GPU Gens abwarte, wie seinerzeit Gothic1 als der PC es nicht auf die kette gekommen hat.
Auch cyberpunk fällt drunter.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: fox40phil und Chismon
Chismon schrieb:
Interessanter Weise wurden auch einmal die Effizienzangaben beider GPU-Entwickler von Igor auf Tom'sHardware.de beleuchtet, basierend auf nVidias - scheinbar bewusst kundentaeuschenden - Angaben ;).
Wobei sich mir der Informationsgehalt des Videos nicht wirklich erschließt.
Wen interessiert denn, ob die TDP, die Nvidia dort für die AMD GPUs genannt hat, korrekt ist oder nicht?
Die TDP des reinen chips ist doch uninteressant, was zählt ist doch sowieso der gesamte Verbrauch der Karte und da haben wir von beiden Herstellern offizielle Angaben und Igors Tests, nach denen Nvidia exakt die TBP verbraucht und AMD, wie Igor ja auch angemerkt hat, eher leicht darüber liegt.

In der Praxis dürfte eine 5700XT also um die 230W ziehen, während eine RTX2070 eben 180W zieht
 
  • Gefällt mir
Reaktionen: Transistor 22
fahr_rad schrieb:
@Foxel Der Bitcoin Wert mag zwar steigen aber mittlerweile wird nicht mehr mit GraKas mining betrieben. Es gibt jetzt spezielle Chips, deren Name mir nur gerade entfallen ist.

Antminer, Bitmain usw.

SONNTAGSFRAGE: 1x Antminer für 3500$ oder
6x Vega VIIs für 3500$ mit a16GB-HMB2.
Wer wird wohl effizienter Hashes berechnen? ;D
 
Taxxor schrieb:
Jo, ich meinte ASIC. Ich stecke jetzt nicht ultra tief im Kyrptowährungsbusiness aber mein Eindruck war, dass es mittlerweile bei den ganzen größeren Währungen so ist, dass mit ASIC gemined wird. sorry wenn das falsch war bzw. ist


-Ps-Y-cO- schrieb:

Ach die VII ist doch sowieso ne Totgeburt und kann nix :evillol:
 
  • Gefällt mir
Reaktionen: Balikon und -Ps-Y-cO-
Hier sprechen alle von NUR noch 3 Wochen..., es sind doch IMMER noch 3 Wochen. Sitz wie auf glühenden Kohlen!
 
Kenn mich mit der Materie zwar nicht gut aus, aber war der Vorteil von GPUs nicht, das verschiedene Währungen gemint werden können.
Die ASIC nur eine bestimmte?
 
Taxxor schrieb:
Wen interessiert denn, ob die TDP, die Nvidia dort für die AMD GPUs genannt hat, korrekt ist oder nicht?
Die TDP des reinen chips ist doch uninteressant, was zählt ist doch sowieso der gesamte Verbrauch der Karte und da haben wir von beiden Herstellern offizielle Angaben und Igors Tests, nach denen Nvidia exakt die TBP verbraucht und AMD, wie Igor ja auch angemerkt hat, eher leicht darüber liegt. In der Praxis dürfte eine 5700XT also um die 230W ziehen, während eine RTX2070 eben 180W zieht.

Die Kundenschaft i.a. interessiert das und ob man mit falschen Daten seitens nVidia diese evt. versucht zu taeuschen (es waere ja nicht das erste Mal) und natuerlich ist es technisch ein Argument, dass hier fast schon zu Tode diskutiert wurde von den Leuten, die angeblich primaer Ihre Grafikkarten aus Effiziengruenden bei dem Marktfuehrer kaufen und daher nicht bei der Konkurrenz (ich erinnere da nur an ellenlange Diskussionen in GTX 1060 vs. RX 580 Threads hier), wenn es diesen Leuten an anderen/plausibleren Argumenten mangelt.

Mit "uninteressant" hat das also wenig bis gar nichts zu tun und natuerlich leitet sich der Kartenverbrauch vom Chipverbrauch direkt ab.

Die Angaben stammen von nVidia dazu, dass man 20-30W beim AMD/RTG Chip ueber dem liegt was zu erwarten ist (was sich natuerlich auch auf den Kartenverbrauch umlegen laesst) und das ist - wie von Igor aufgezeigt - nicht begruendbar auf der gleichen Berechnungsgrundlage wie bei den nVidia-eigenen-RTX-Modellen (die dadurch bewusst deutlich effizienter dargestellt werden als sie sind im Vergleich zur Konkurrenz).

Ergo, stammen die Angaben nicht von Igor (er hat sie von HardwareLuxx uebernommen, die diese wohl beim nVidia Marketing abfotografiert haben), der diese (bewusst?) falschen Angaben von nVidia ja entlarvt hat.

Wieviel am Ende bei den Boards daraus wird, ist aktuell - mangels RX 5700(XT) Tests (so gesehen weisst Du natuerlich noch gar nicht, was eine RX 5700(XT) in der Praxis bei Werkseinstellungen ziehen wird) - natuerlich noch unklar, aber mit der Chipverbrauchsangabe hat nVidia - wohl um marketingtechnisch daraus einen Vorteil zu ziehen - klar (absichtlich?) zu hoch gegriffen ;).
 
Zuletzt bearbeitet:
Würde mich auch mal intressieren ab wann dürfen Tester über den Ryzen 3000 berichten?
 
  • Gefällt mir
Reaktionen: p4z1f1st
So lange die grünen Balken länger sind als die roten ,wird eh mehr aus dem grünen Lager gekauft. So ist das nun Mal.
 
Chismon schrieb:
Ergo, stammen die Angaben nicht von Igor (er hat sie von HardwareLuxx uebernommen, die diese wohl beim nVidia Marketing abfotografiert haben), der diese (bewusst?) falschen Angaben von nVidia ja entlarvt hat.

Wieviel am Ende bei den Boards daraus wird, ist aktuell - mangels RX 5700(XT) Tests (so gesehen weisst Du natuerlich noch gar nicht, was eine RX 5700(XT) in der Praxis bei Werkseinstellungen ziehen wird) ;).
Ich sag's noch mal, der Chipverbrauch interessiert niemanden, Vega56 hat auch eine TDP von 165W, interessant ist aber nur die TBP von 210W denn das ist, was die Karte verbraucht.

Und da haben wir eben von AMD die 225W genannt bekommen.
Das einzige, was bei der Nvidia Folie "gelogen" war, war die Chip TDP, die in der Realität etwas niedriger liegen müsste. Was aber wie schon gesagt keinen Unterschied macht, da die Karte so oder so mit 225W angegeben ist.
 
Zuletzt bearbeitet:
@Schumi1984 die, welche es wissen, haben eine NDA unterzeichnet und dürfen das nicht sagen. Ich vermute spätestens 7. JULI (sry, falscher Monat) , bei der Veröffentlichung, hoffe aber auf 1.7., da ich es auch fast nicht mehr aushalte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Strahltriebwerk
Der 7 Juni ist schon vorbei aber danke für die Antwort.
Bin auch echt schon gespannt und ungeduldig.
 
Ich hoffe die Board-Partner werden auch ein paar Super-Varianten der RX5700 auf den Markt bringen :D

XFX Radeon RX 5700 XT ti Super GT
 
@Schumi1984 da ist mir der falsche Monat rausgerutscht. Es sind NUR NOCH oder IMMER NOCH, 22 Tage, dann haben wir Gewissheit.
 
Zurück
Oben