Benji21 schrieb:besseren Modelle landen bei 2100+ MHz beim Chip
Nunja, da ich nur 111% PT einstellen, bin ich eher damig limitiert.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Benji21 schrieb:besseren Modelle landen bei 2100+ MHz beim Chip
Danke für die sachliche Aufklärung. Was mich nur irritiert hat dabei, ist das sich die Karte bei 1080p auch schon 7 Gb reserviert bei 4k dann quasi alles. Woher erkennt man denn jetzt ob der Speicher nur reserviert oder fast/voll ist. Mir würde die Entscheidung für eine 2080 jedenfalls deutlich leichter fallen, wenn sie den Speicher nicht so knapp gehalten hätten. Die 11Gb der 1080ti mit vergleichbarer Leistung wirkte da irgendwie ausgewogener zukunftsorientierter.Fraggball schrieb:das ist doch totaler quatsch, das game hat viel vram reserviert ja, aber wenn der vram nicht ausreichen würde hätte die karte ja performanceprobleme.
niemand weiss wieviel davon wirklich genutzt wird, auch bei 11 oder 16 gb kann ich der engine sagen den komplett zu reservieren, in dem graphen sieht es dann so aus als wäre der voll. nutzen kann ich aber trotzdem nur 500mb...was hier manchmal für unfug verbreitet wird ist echt schräg.
informiert euch doch bitte mal ordentlich bevor ihr solche sachen erzählt.
klar strauchelt ne 2080 wenn ich irgenwo modpacks draufpacke die 12gb vram brauchen, wenn ich sowas nutze ist die r7 defintiv die bessere karte, aber diese halbwahrheiten hier sind manchmal echt anstrengend.
Wenn der vram voll ist und dein System nicht hinterherkommt das auszugleichen leidet die Performance stark. Dann hast du massive ruckler, niedrige fps, fps drops und fiese texture pop ins. Allerdings gibt es auch bei vollem vram häufig noch Spielraum bis die Performance abschmiert.Hollomen schrieb:Danke für die sachliche Aufklärung. Was mich nur irritiert hat dabei, ist das sich die Karte bei 1080p auch schon 7 Gb reserviert bei 4k dann quasi alles. Woher erkennt man denn jetzt ob der Speicher nur reserviert oder fast/voll ist. Mir würde die Entscheidung für eine 2080 jedenfalls deutlich leichter fallen, wenn sie den Speichet nicht so knapp gehalten hätten. Die 11Gb der 1080ti mit vergleichbarer Leistung wirkte da irgendwie ausgewogener zukunftsorientierter.
Die "offiziellen " Benchmarks deuten auf eine Irrelevanz des doppelten Speichers der RVII hin für den Mainstream Gaming Einsatz. Die 4K Heavy Modded Skyrim Szenarien sind die extrem speziellen Situationen.Hollomen schrieb:Danke für die sachliche Aufklärung. Was mich nur irritiert hat dabei, ist das sich die Karte bei 1080p auch schon 7 Gb reserviert bei 4k dann quasi alles. Woher erkennt man denn jetzt ob der Speicher nur reserviert oder fast/voll ist. Mir würde die Entscheidung für eine 2080 jedenfalls deutlich leichter fallen, wenn sie den Speichet nicht so knapp gehalten hätten. Die 11Gb der 1080ti mit vergleichbarer Leistung wirkte da irgendwie ausgewogener zukunftsorientierter.
Benji21 schrieb:Falsch, bei der 2080 war oder besser ist es Mist weil du 1080Ti Leistung (ja, ist die gleiche weil jede Custom Karte höher taktet als die Founders, erst recht auf Dauer) zum 1080Ti Release-Preis und 3GB weniger VRam bekommst. [...]
Laphonso schrieb:Die "offiziellen " Benchmarks deuten auf eine Irrelevanz des doppelten Speichers der RVII hin für den Mainstream Gaming Einsatz. Die 4K Heavy Modded Skyrim Szenarien sind die extrem speziellen Situationen.
Wir reden immer noch von Full HD und 1440p Mainstream, letzter Auflösung ist gerade nun mal auf die ~ 25 % Nutzung angestiegen laut steam.
In keinem mir bekannten Test fällt die 2080 als Problem aus durch nur 8 GB VRAM.
Die Spiele und Grafikengines sind qua Design entweder auf den Konsolenmarkt oder dann nativ oder portiert auf den Desktopmarkt abgerichtet. Und da bedienen sie 4 bis 8 GB im Kern.
Eine Verbreitung im einstelligen Prozentbereich der GPUs durch R7 Käufer wird aber auf jeden Fall 16 GB VRAM notwendig machen, ohne Zweifel! Frag die AMD Apologeten, die sich einreden, dass für jeden Gamer bei der Wahl zwischen R7 ohne Zusatzfeatures mit Speed aus März 2017 aber mehr Speicher versus 2080 plus Turingfeatures ganz klar die R7 gesetzt ist. So objektiv. Dank 16 GB VRAM.
v_ossi schrieb:Über den VRAM kann man streiten, aber die reine Rasterisierungsleistung der 2080 ist doch in Ordnung.
Mit der neuen Generation erreicht Nvidia die Leistung der höheren Karten der letzten Generation. Also ehemalige xx80Ti Leistung in der neuen xx80er Klasse. Einzig die Tatsache, dass man unbedingt RTX einbauen musste und damit die höheren Preise rechtfertigt, stößt doch sauer auf.
Bei AMD muss man aber den gleichen Maßstab anlegen.
Es werden ~35% Rasterisierungsleistung hinzugewonnen, aber gleichzeitig wird der Preis von 499 auf 699 erhöht. Preis-Leistungs-Technisch haben "wir" da nix gewonnen.
Anhang anzeigen 742149
Naja, der Vergleich ist nicht ganz fair. Die Karte damals war so günstig in der UVP weil die Leistung entsprechend war. Die UVP heute ist identisch zur vermutlich gleichschnellen NV. Und damit völlig in Ordnung. Ich denke allen ist klar, dass AMD mit den Karten nicht wirklich viel Geld verdient hat. Auch die Marge heuer wird bei den verbauten 16GB HBM nicht wesentlich besser sein. Die doppelte Speichermenge hast du in deiner Betrachtung auch mal dezent unterschlagen Übrigens ist es mitnichten so das die R7 keine Features hat - auch wenn viele davon dem Gamer nucht unmittelbar nutzen.v_ossi schrieb:Über den VRAM kann man streiten, aber die reine Rasterisierungsleistung der 2080 ist doch in Ordnung.
Mit der neuen Generation erreicht Nvidia die Leistung der höheren Karten der letzten Generation. Also ehemalige xx80Ti Leistung in der neuen xx80er Klasse. Einzig die Tatsache, dass man unbedingt RTX einbauen musste und damit die höheren Preise rechtfertigt, stößt doch sauer auf.
Bei AMD muss man aber den gleichen Maßstab anlegen.
Es werden ~35% Rasterisierungsleistung hinzugewonnen, aber gleichzeitig wird der Preis von 499 auf 699 erhöht. Preis-Leistungs-Technisch haben "wir" da nix gewonnen.
Anhang anzeigen 742149
Ich habe nicht Straßenpreis und UVP verglichen.Rockstar85 schrieb:Es wird hier UPV mit Straßenpreisen verglichen, was ansich schon lachhaft ist
Finde ich irgendwo gut, weil 40K = immer gut.Dabei sagten die Orks schon:
Rot is bessä, denn Rot macht schnellä
easy-max schrieb:moin,
kann jemand mit ähnlichen Spec´s und den Einstellungen diese Werte verifizieren?
(i7-7700K und 16 GB Arbeitsspeicher mit einem Takt von 3.000 MHz. Windows 10 in UHD (3.840 × 2.160 Pixel mit der Radeon RX Vega 64 )
domian schrieb:? Einen 82er leider aber ich bin zufrieden ja.
Mein 1440p Dell Monitor hat schlappe 400€ gekostet, gibt einige Modelle wo man fast nichts fürs G-Sync bezahl.Rage schrieb:@m.Kobold Tjo, jetzt hätts auch der billigere FreeSync-Schirm getan
Rage schrieb:Das hier ist doch kein ernsthafter Versuch, eine überzeugende Konkurrenzlösung zu den RTX-Karten abzuliefern. Das ist lediglich eine GPU, die sowieso entwickelt wurde und auf der man zufälligerweise auch spielen kann, um eben eine Alternative zu bieten.
Hopsekäse schrieb:Die inhaltliche Begründung deiner Aussagen ist ja faszinierend... (btw: mal in meine Signatur geguckt? )
Einfach mal "modern" und "7nm" rein geworfen und schon wird das alles ausbügeln? Wohl nur wenn man sich das gaaanz ganz fest wünscht...
Es geht hier um technologischen Vorsprung. Wie ignorant muss man denn sein, um alles bis auf den Preis und die Leistung auszublenden und dann, nur weil es ein ähnlich dastehendes Konkurrenzprodukt gibt, zu meinen AMD hinge nicht hinterher?
Da gebe ich dir sogar Recht WK bei CB übrigendstemnozor schrieb:Also 7nm ist auch technologischer Vorsprung. ... Und Lisa Leathersuit's expertise ist nunmal die Chipfertigung nicht das Chipdesign.
AMD hat hiermit einen zetlichen Vorsprung, aber sicher keinen technologischen. Der Prozess ist für AMD und Nvidia zugänglich. Ein Vorsprung wäre es, hätte AMD seine eigenen Fabs, und der Prozess wäre exklusiv.temnozor schrieb:Also 7nm ist auch technologischer Vorsprung.
Cl4whammer! schrieb:Dachte die Aussage von AMD wäre gewesen mehr Leistung bei gleichem Verbrauch? O.o
r4yn3 schrieb:AMD hat hiermit einen zetlichen Vorsprung, aber sicher keinen technologischen. Der Prozess ist für AMD und Nvidia zugänglich. Ein Vorsprung wäre es, hätte AMD seine eigenen Fabs, und der Prozess wäre exklusiv.
Es ist naiv zu glauben man wäre mittlerweile gut dran weil man ja irgendwieso mithalten kann, und blendet den 7nm Vorteil einfach aus.
Fakt ist aber auch, dass Vega nicht für 7nm designed wurde. Das dient als Pipecleaner. Man nimmt halt das bisschen Takt mit reduziert etwas die Fläche damit man fluffig mal 4 HBMs auf einen Interposer packen kann. Ähnlich wie der Zen Shrink von 14 auf 12nm.
Was 7nm wirklich wert ist, wird man frühestens mit Navi sehen. Und wenn man es nicht endlich schafft aus dem GCN Karussell auszuteigen wird man wohl von 7nm Nvidia wirklich gecrushed.
Edelgamer schrieb:Meint ihr ein 650 Watt Netzteil reicht für die Radeon VII wenn ich die mit einem Ryzen 3700x kombinieren würde???
Weil man sich scheinbar auch mit 12nm "Worlds fastest GPU" auf die Stirn schreiben kann. In der Zwischenzeit kann man sich mal solche Späße wie RTX leisten. Nvidia steht absolut nicht unter Zugzwang. Man kann über eine 2060 lästern was man will, aber ein Navi12, welches im Midrange mal ordentlich angreifen könnte, dauert wohl nochmal ein halbes Jahr.temnozor schrieb:Und warum machen sie es nicht?
Ob jetzt 331mm2 in 7nm oder 752mm2 in 12nm billiger ist, wird man nie wirklich erfahren. AMD hat halt die Flucht nach vorne ergriffen. Bei ihren CPUs bin ich ja optimisch, da scheint ihnen das wirklich gut aufzugehen.temnozor schrieb:War halt das billigste was man machen kann.