Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce-Grafikkarten: Nvidia sprengt Erwartungen mit Rekordzahlen
- Ersteller Volker
- Erstellt am
- Zur News: GeForce-Grafikkarten: Nvidia sprengt Erwartungen mit Rekordzahlen
ElectricStream
Lt. Commander
- Registriert
- Juni 2004
- Beiträge
- 1.303
Wenn es aber nun so ist das Nvidia nur alle 2,5 Jahre Karten raus haut, dann können die Gamer auch 900 Euro für eine GTX, 1500 Euro für ne TI und 2000 Euro für eine Titan ausgeben.
In jedem Segment das Top-Modell teurer anpreisen, was wiederum die Ableger 2070 und darunter für 600 Euro sehr attraktiv erscheinen lässt, wartet mal ab
In jedem Segment das Top-Modell teurer anpreisen, was wiederum die Ableger 2070 und darunter für 600 Euro sehr attraktiv erscheinen lässt, wartet mal ab
-Snaggletooth-
Commander
- Registriert
- März 2015
- Beiträge
- 2.946
@Doc sollte ehr zum Verständnis sein
MFG Grüße
MFG Grüße
Zuletzt bearbeitet:
W
Wadenbeisser
Gast
@Gschwenni
Das ist auch nicht mal annähernd das gleiche Verhalten denn die RX560er hatten von Anfang an das womit geworben wurden udn die gestitzten Varianten waren (wenn ich mich recht erinnere) zum einen nicht für den europäischen Markt gedacht und sollten zum anderen mit einen D gekennzeichnet werden, woran sich aber die Kartenhersteller und Händler nicht hielten. Vermutlich wegen der Karten Knappheit durch die Mining Blase. Später wurde dann die gestutzte Variante auch offiziell. Bei Nvidia hat sich nichts an der Hardware geändert sondern sie wurde von Anfang an mit falschen Daten auf den Markt gebracht. Da liegen Welten zwischen.
Zudem war meines erachtens nach die primitive Shader Geschichte von Anfang an von der Software abhängig, da ist es egal was in der Gerüchteküche rumschwirrte. Und ja, am Anfang hatte der Treiber dafür noch keine Unterstützung aber wie es aktuell ausschaut...keine Ahnung denn es ist um das Thema verdammt still geworden und es gibt bis heute keine Software mit der man das prüfen könnte.
In Hardware ist es wohl verfügbar, beim Treiber ein großes Fragezeichen dran aber es gibt 0 Software mit derman das testen oder gar nutzen könnte.
Im Zweifelsfall könnte das einen ähnlichen Status haben wie AMDs TrueAudio. Es ist da, es ist nutzbar und wird trotz der Vorteile (vermutlich aufgrund der Marktanteile) nicht genutzt.
Wenn du keine Diskussion darüber haben willst dann breche sie nicht mit halbgaaren Behauptungen vom Zaun.
@gerzerk
Wann war das? Am Anfang wurde die Vega64 ab ca. 500€ angeboten. Nachdem die Mining Fraktion sie für sich entdecke kletterte der Preis wegen der Nachfrage bis auf die 1000€ Grenze rauf.
Das ist auch nicht mal annähernd das gleiche Verhalten denn die RX560er hatten von Anfang an das womit geworben wurden udn die gestitzten Varianten waren (wenn ich mich recht erinnere) zum einen nicht für den europäischen Markt gedacht und sollten zum anderen mit einen D gekennzeichnet werden, woran sich aber die Kartenhersteller und Händler nicht hielten. Vermutlich wegen der Karten Knappheit durch die Mining Blase. Später wurde dann die gestutzte Variante auch offiziell. Bei Nvidia hat sich nichts an der Hardware geändert sondern sie wurde von Anfang an mit falschen Daten auf den Markt gebracht. Da liegen Welten zwischen.
Zudem war meines erachtens nach die primitive Shader Geschichte von Anfang an von der Software abhängig, da ist es egal was in der Gerüchteküche rumschwirrte. Und ja, am Anfang hatte der Treiber dafür noch keine Unterstützung aber wie es aktuell ausschaut...keine Ahnung denn es ist um das Thema verdammt still geworden und es gibt bis heute keine Software mit der man das prüfen könnte.
In Hardware ist es wohl verfügbar, beim Treiber ein großes Fragezeichen dran aber es gibt 0 Software mit derman das testen oder gar nutzen könnte.
Im Zweifelsfall könnte das einen ähnlichen Status haben wie AMDs TrueAudio. Es ist da, es ist nutzbar und wird trotz der Vorteile (vermutlich aufgrund der Marktanteile) nicht genutzt.
Wenn du keine Diskussion darüber haben willst dann breche sie nicht mit halbgaaren Behauptungen vom Zaun.
Ergänzung ()
@gerzerk
Wann war das? Am Anfang wurde die Vega64 ab ca. 500€ angeboten. Nachdem die Mining Fraktion sie für sich entdecke kletterte der Preis wegen der Nachfrage bis auf die 1000€ Grenze rauf.
Kabelkasper
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.074
Die hohen Preise haben wir NICHT der mangelnden Konkurrenz zu verdanken, sondern den Deppen die bereit sind solche Mondpreise zu bezahlen.
Wenn die nix verkaufen weil die Preise zu hoch sind werden diese angepasst.
Das ist wie bei Gebrauchtwagen: Ein beim NP gleich-teurer Passat ist nach DAT-Schwacke nach 3 Jahren und x Kilometer 3000€ weniger Wert als ein Mazda 6. Aber weil wir (die Deutschen) bereit sind für die Karren mehr Geld auszugeben als sie Wert sind hauen die Händler da ordentlich Gewinnmarge drauf.
Wenn die nix verkaufen weil die Preise zu hoch sind werden diese angepasst.
Das ist wie bei Gebrauchtwagen: Ein beim NP gleich-teurer Passat ist nach DAT-Schwacke nach 3 Jahren und x Kilometer 3000€ weniger Wert als ein Mazda 6. Aber weil wir (die Deutschen) bereit sind für die Karren mehr Geld auszugeben als sie Wert sind hauen die Händler da ordentlich Gewinnmarge drauf.
CastorTransport
Captain
- Registriert
- Apr. 2017
- Beiträge
- 3.364
tidus1979 schrieb:Die hohen Preise haben wir doch AMD zu verdanken. Wären die konkurrenzfähig, hätten wir das nicht.
Ähm nein, eher den Minern
E
engramm
Gast
Postman schrieb:Im Highendbereich kaufen viele eben nur die Speerspitze. So ist es auch bei mir.
Und seit dem NVIDIA "5800-Fön-Disaster" hinkte AMD in allen Bereichen immer hinterher.
Ich hatte noch irgendeine annähernd konkurrenzfähige 1900er Karte, die ging aber schon kurz nach Ablauf der Garantie kaputt, so dass es mir auch da erst gereicht hat.
AMD ist deshalb heute auch nur meist für Taschengeld und Bafög Kandidaten bzw. Casual- oder Gelegenheitsspieler interessant. Die AMD Treiber sind zudem oft mehr bugverseucht als bei NVIDIA.
Ich hätte aber gerne eine brauchbare Konkurrenz und auch wieder mal Interesse an einer AMD-Karte.
Aber AMD scheint zu schlafen.
Schlecht ist das NVIDIA Ergebnisse für einen 1080er Nachfolger.
Die werden sich nun Zeit lassen, obwohl für VR und 4K dringenst schnellere Karten benötigt werden...
die nvidia karten gehen ja nie kaputt. zu den treibern kann man auch sagen das die genauso verbuggt sind und das sogar bei den sooo gelobten "premium" karten
https://www.computerbase.de/2018-03/nvidia-titan-v/
https://www.hardwareluxx.de/index.p...s-titan-v-soll-sich-haeufiger-verrechnen.html
Apocalypse schrieb:Trollst du oder ging die 7000er und R9 290 Serie komplett an dir vorbei?
Wobei bei den Formierungen wird es wohl trollen sein.
die HD5870 ist ihm anscheinend auch vorbeigegangen.
Zuletzt bearbeitet von einem Moderator:
dersuperpro1337
Lieutenant
- Registriert
- Jan. 2015
- Beiträge
- 997
Ich warte noch, bis AMD wieder Karten mit der gleichen Performance / Watt bei ähnlichem Preis anbietet wie NV.
Meine Entscheidung ist schon klar, spätestens bei Threadripper 2 zuzugreifen und meinen mittelmäßigen 6900k zu ersetzen. Spätestens dann will ich AMD nach einer teildefekten 7970 und einer zu heißen 390 gerne auch im GPU Segment wieder eine Chance geben.
Bloß mit Vega in der jetzigen Form können sie mich nicht locken, da muss schon mehr passieren.
Meine Entscheidung ist schon klar, spätestens bei Threadripper 2 zuzugreifen und meinen mittelmäßigen 6900k zu ersetzen. Spätestens dann will ich AMD nach einer teildefekten 7970 und einer zu heißen 390 gerne auch im GPU Segment wieder eine Chance geben.
Bloß mit Vega in der jetzigen Form können sie mich nicht locken, da muss schon mehr passieren.
Phneom
Lt. Commander
- Registriert
- Apr. 2013
- Beiträge
- 2.030
enissm schrieb:die HD5870 ist ihm anscheinend auch vorbeigegangen.
Postman kann man großteils eh nicht mehr ernst nehmen, die Aussage AMD sei nur für Schüler mit Taschengeld oder generell für Menschen mit wenig Geld hat ihn eigentlich schon komplett disqualifiziert. Auch seine anderen Beiträge sind meistens echt ... interessant?
Aber gut sowas wie Tahiti ist egal und die GTX970er gabs auch nie achja und die Treiber Updates seitens AMD das ist sowieso nur alles Show.
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.875
@ dersuperpro 1337
da kannst noch ne weile warten - vielleicht für immer.
performance/watt ist die größte augenwischerei der geschichte der hardware-reviews und spielt nvidia direkt in die karten.
um daten für performance / watt zu erheben wird (bei CB) im prinzip folgendes gemacht: fps / watt in spielen XY, die dann in einen einzelnen graph zusammengefasst und in % umgerechnet werden. nun lässt sich bei CB aber folgendes beobachten: tendenziell misst CB bei nvidia karten weniger und speziell bei vega karten mehr verbrauch, als es bspw. toms hardware tut. entweder hat CB bei nvidia golden samples und amd gurken oder man drückt ein, zwei augen zu und rät die letzten zwei stellen am wattmeter. mit den hier veröffentlichen verbrauchswerten habe ich zu kämpfen.
aber für performance(fps) per watt brauchen wir ja nicht nur den verbrauch, sondern auch die fps, und hier kommt der größere streitpunkt:
der parkour. natürlich sind nur nvidia spiele neutral und amd spiele cherrypicking. also bencht man ein "neutrales" spiel mit gameworks. was passiert? alle grafikkarten laufen auf 100% load (mit entsprechendem verbrauch), nur produzieren die radeon karten in ausgewählten titeln einfach 20-30% weniger fps.
nehmen wir mal mass effect andromeda als nvidia spiel und battlefront 2 als radeon spiel (oder "neutrales", kann man sich aussuchen)
in der regel erreicht die gtx 1080ti 230% der fps der gtx 1060.
und vega 64 etwa 170% der fps der rx580.
jeweils die referenzkarten (die rx580 ohne referenz ist aber ein sonderfall).
diese skalierungen behalten wir der einfachheit halber für beide spiele bei.
die verbrauchswerte habe ich mit toms hardware abgeglichen.
in mass effect andromeda würde das geschätzt etwa so aussehen:
gtx 1060: 60 fps
rx 580: 60 fps
gtx 1080ti: 138 fps
vega 64: 102 fps
dann werden die fps durch den verbrauch geteilt, um fps pro watt zu erhalten:
gtx 1060: 60 fps / 120w = 0,5 fps pro watt
rx 580: 60 fps / 180w = 0,33 fps pro watt
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64: 102 fps / 290w = 0,35 fps pro watt
puh kernschrott - amd go homee!!
in battlefront 2 würde das geschätzt etwa so aussehen:
gtx 1060: 60 fps
rx 580: 72 fps
gtx 1080ti: 138 fps
vega 64: 122 fps
dann wird der verbrauch durch die fps geteilt, um fps pro watt zu erhalten:
gtx 1060: 60 fps / 120w = 0,5 fps pro watt
rx 580: 72 fps / 180w = 0,4 fps pro watt
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64: 122 fps / 290w = 0,42 fps pro watt
wenn man sich dann noch 10 minuten zeit im treiber nimmt, um vega von den absolut bescheuerten stock-settings zu befreien, kann man ca 10% performance bei gleichem verbrauch herausholen.
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64: 122 fps / 290w = 0,42 fps pro watt
vega 64 uv/hbm oc: 134 fps / 290w = 0,46 fps pro watt
das ist eine glühbirne unterschied vs 4 fps. hat schonmal jemals jemand drüber nachgedacht eine kaputte glühbirne nicht zu wechseln, weil die dann wieder strom verbraucht?
das sind nämlich die dimensionen hier.
jetzt schauen wir uns mal an, was CB gebencht hat:
https://www.computerbase.de/2017-12...18/3/#diagramm-performance-pro-watt-2560-1440
vega erreicht 57% der effizienz einer 1080 ti. vernichtend. absoluter elektroschrott, was amd da gebaut hat. raja feuern, totaler fail.
und was haben wir hier berechnet?
nvidia gameworkstitel mass effect andromeda
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64: 102 fps / 290w = 0,35 fps pro watt
= ~58% effizienz von vega 64 vs 1080 ti - punktlandung.
wir wissen jetzt also, dass sich unser ergebnis von "nvidia gameworks spiel" vega64 vs 1080 ti mit den zahlen von CBs performance / watt % deckt - das heißt umgekehrt, CB erhebt die effizienzdaten aus einem szenario, das ziemlich genau dem entspricht, was passiert, wenn man ein gameworks spiel bencht.
wen wundert da noch, dass nvidia effizienter ist?
wenn wir jetzt mal als gegenbeispiel battlefront 2 + gut eingestellte vega 64 dagegenstellen (das ist immernoch fairer als ein gameworks spiel zu benchen), kommen solche zahlen raus:
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64 uv/hbm oc: 134 fps / 290w = 0,46 fps pro watt
= ~77% effizienz von vega 64 vs 1080 ti - das sind 20% steigerung nur durch ein anderes spiel und kinderleichte 10 minuten im adrenalin treiber wattman, um die karte auf das niveau zu bringen, in dem sie hätte ausgeliefert werden sollen.
man sieht also: jeder kann so testen, wie er will, um das ergebnis zu bekommen, das er will.
wie fair es ist, die effizienzdaten in einem heimspiel des marktführers zu erheben, kann sich jeder selbst überlegen.
und dann darf man sich noch durch den kopf gehen lassen, dass vega zum mrsp (ohne miner) signifikant günstiger gewesen wäre als eine 1080 ti.
wie schlecht ist vega? so schlecht wie die software, die darauf läuft.
sicherlich hat nvidia im bezug auf gaming die effizientere und auch die etwas potentere hardware, aber niemand müsste wirklich auf was verzichten, wenns von heute auf morgen nvidia nicht mehr geben würde. ein paar w mehr verbrauch hier und ein paar fps da weniger, dafür freesync und vulkan.
hätte amd geld für reine gaming chips und 50% marktanteile und jedes spiel wäre so gut optimiert wie bspw. battlefront 2, hätten wir überhaupt kein problem im gaming-gpu markt.
aber die absolute schieflage durch nvidia only optimierung und der "amd ist was für arme" mentalität der "nvidia master race gamer" ist genau das, was sich der markt, die presse und die konsumenten selber antun.
es ginge auch anders.
da kannst noch ne weile warten - vielleicht für immer.
performance/watt ist die größte augenwischerei der geschichte der hardware-reviews und spielt nvidia direkt in die karten.
um daten für performance / watt zu erheben wird (bei CB) im prinzip folgendes gemacht: fps / watt in spielen XY, die dann in einen einzelnen graph zusammengefasst und in % umgerechnet werden. nun lässt sich bei CB aber folgendes beobachten: tendenziell misst CB bei nvidia karten weniger und speziell bei vega karten mehr verbrauch, als es bspw. toms hardware tut. entweder hat CB bei nvidia golden samples und amd gurken oder man drückt ein, zwei augen zu und rät die letzten zwei stellen am wattmeter. mit den hier veröffentlichen verbrauchswerten habe ich zu kämpfen.
aber für performance(fps) per watt brauchen wir ja nicht nur den verbrauch, sondern auch die fps, und hier kommt der größere streitpunkt:
der parkour. natürlich sind nur nvidia spiele neutral und amd spiele cherrypicking. also bencht man ein "neutrales" spiel mit gameworks. was passiert? alle grafikkarten laufen auf 100% load (mit entsprechendem verbrauch), nur produzieren die radeon karten in ausgewählten titeln einfach 20-30% weniger fps.
nehmen wir mal mass effect andromeda als nvidia spiel und battlefront 2 als radeon spiel (oder "neutrales", kann man sich aussuchen)
in der regel erreicht die gtx 1080ti 230% der fps der gtx 1060.
und vega 64 etwa 170% der fps der rx580.
jeweils die referenzkarten (die rx580 ohne referenz ist aber ein sonderfall).
diese skalierungen behalten wir der einfachheit halber für beide spiele bei.
die verbrauchswerte habe ich mit toms hardware abgeglichen.
in mass effect andromeda würde das geschätzt etwa so aussehen:
gtx 1060: 60 fps
rx 580: 60 fps
gtx 1080ti: 138 fps
vega 64: 102 fps
dann werden die fps durch den verbrauch geteilt, um fps pro watt zu erhalten:
gtx 1060: 60 fps / 120w = 0,5 fps pro watt
rx 580: 60 fps / 180w = 0,33 fps pro watt
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64: 102 fps / 290w = 0,35 fps pro watt
puh kernschrott - amd go homee!!
in battlefront 2 würde das geschätzt etwa so aussehen:
gtx 1060: 60 fps
rx 580: 72 fps
gtx 1080ti: 138 fps
vega 64: 122 fps
dann wird der verbrauch durch die fps geteilt, um fps pro watt zu erhalten:
gtx 1060: 60 fps / 120w = 0,5 fps pro watt
rx 580: 72 fps / 180w = 0,4 fps pro watt
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64: 122 fps / 290w = 0,42 fps pro watt
wenn man sich dann noch 10 minuten zeit im treiber nimmt, um vega von den absolut bescheuerten stock-settings zu befreien, kann man ca 10% performance bei gleichem verbrauch herausholen.
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64: 122 fps / 290w = 0,42 fps pro watt
vega 64 uv/hbm oc: 134 fps / 290w = 0,46 fps pro watt
das ist eine glühbirne unterschied vs 4 fps. hat schonmal jemals jemand drüber nachgedacht eine kaputte glühbirne nicht zu wechseln, weil die dann wieder strom verbraucht?
das sind nämlich die dimensionen hier.
jetzt schauen wir uns mal an, was CB gebencht hat:
https://www.computerbase.de/2017-12...18/3/#diagramm-performance-pro-watt-2560-1440
vega erreicht 57% der effizienz einer 1080 ti. vernichtend. absoluter elektroschrott, was amd da gebaut hat. raja feuern, totaler fail.
und was haben wir hier berechnet?
nvidia gameworkstitel mass effect andromeda
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64: 102 fps / 290w = 0,35 fps pro watt
= ~58% effizienz von vega 64 vs 1080 ti - punktlandung.
wir wissen jetzt also, dass sich unser ergebnis von "nvidia gameworks spiel" vega64 vs 1080 ti mit den zahlen von CBs performance / watt % deckt - das heißt umgekehrt, CB erhebt die effizienzdaten aus einem szenario, das ziemlich genau dem entspricht, was passiert, wenn man ein gameworks spiel bencht.
wen wundert da noch, dass nvidia effizienter ist?
wenn wir jetzt mal als gegenbeispiel battlefront 2 + gut eingestellte vega 64 dagegenstellen (das ist immernoch fairer als ein gameworks spiel zu benchen), kommen solche zahlen raus:
gtx 1080ti: 138 fps / 230w = 0,6 fps pro watt
vega 64 uv/hbm oc: 134 fps / 290w = 0,46 fps pro watt
= ~77% effizienz von vega 64 vs 1080 ti - das sind 20% steigerung nur durch ein anderes spiel und kinderleichte 10 minuten im adrenalin treiber wattman, um die karte auf das niveau zu bringen, in dem sie hätte ausgeliefert werden sollen.
man sieht also: jeder kann so testen, wie er will, um das ergebnis zu bekommen, das er will.
wie fair es ist, die effizienzdaten in einem heimspiel des marktführers zu erheben, kann sich jeder selbst überlegen.
und dann darf man sich noch durch den kopf gehen lassen, dass vega zum mrsp (ohne miner) signifikant günstiger gewesen wäre als eine 1080 ti.
wie schlecht ist vega? so schlecht wie die software, die darauf läuft.
sicherlich hat nvidia im bezug auf gaming die effizientere und auch die etwas potentere hardware, aber niemand müsste wirklich auf was verzichten, wenns von heute auf morgen nvidia nicht mehr geben würde. ein paar w mehr verbrauch hier und ein paar fps da weniger, dafür freesync und vulkan.
hätte amd geld für reine gaming chips und 50% marktanteile und jedes spiel wäre so gut optimiert wie bspw. battlefront 2, hätten wir überhaupt kein problem im gaming-gpu markt.
aber die absolute schieflage durch nvidia only optimierung und der "amd ist was für arme" mentalität der "nvidia master race gamer" ist genau das, was sich der markt, die presse und die konsumenten selber antun.
es ginge auch anders.
Zuletzt bearbeitet:
die besten karten kommen halt von nvidia. nie wieder in diesem leben werde ich mir eine AMD graka wegen den 20€ ersparnis zu nvidia kaufen und mich dann über hitze, lautstärke, miese kühlung, hohem stromverbrauch und miesen treibern ärgern.
ps: habe eine 1060 GTX mit zwei bequiet lüftern, läuft lautlos
ps: habe eine 1060 GTX mit zwei bequiet lüftern, läuft lautlos
Pizza-König
Lieutenant
- Registriert
- Jan. 2016
- Beiträge
- 708
Stromverbrauch ist mir finanziell derbe egal.
Hitzeerzeugung im Rechner nicht.
Ich will ein leises System haben.
Ich würde gerne AMD kaufen, weil mir NVidia seit der GTX 970 etwas unsympatisch ist.
Aber dann muss von AMD auch etwas gleichwertiges kommen.
Davon mal abgesehen muss man sagen, daß NVidia meist Vorreiter bei neuen, mitunter sehr schönen Features ist.
- Oversampling: erst gab es DSR, später VSR
- variable Frameraten: erst gab es GSync, dann gab es Freesync
- GPU-Encoding: erst gab es NVENC, später gab es VCE
- 3D-Gaming: erst gab es 3DVision, eine eigene Lösung von AMD gibt es bis heute nicht (sie verweisen auf einen Drittanbieter-Treiber)
AMD hat dann im Nachhinein z.T. die bessere Umsetzung ... VSR ist beim Downsampling etwas besser als DSR, Freesync braucht kein teures Modul, der Drittanbieter-Treiber von Tridef unterstützt im Gegensatz zu 3DVision auch nicht-lizensierte Polfilter-Monitore, ...
Aber man muss auch mal anerkennen, daß es ohne NVidia solche Features vielleicht bis heute gar nicht gäbe. Innovation sieht man bei AMD selten.
Auch das so verhasste Gameworks ist im Prinzip erstmal nichts schlechtes.
Einige der Effekte sehen wirklich gut aus und nehmen den Entwicklern Arbeit ab, wenn sie die in ihre Games einbauen.
Physikalisch korrekter Rauch, sehr gute volumetrische Beleuchtung, sehr gute Umgebungsverdeckung, innovative Anti Aliasing Lösungen (es gab auch erst einige Zeit nur TXAA, bevor andere TAA Modi in Spielen auftauchten), etc.
Da kommt von AMD im Vergleich sehr, sehr wenig.
Dann darf man sich auch nicht beschweren, wenn einem die Konkurrenz Software-seitig die Butter vom Brot nimmt, und somit die eigene Hardware attraktiver macht.
Hitzeerzeugung im Rechner nicht.
Ich will ein leises System haben.
Ich würde gerne AMD kaufen, weil mir NVidia seit der GTX 970 etwas unsympatisch ist.
Aber dann muss von AMD auch etwas gleichwertiges kommen.
Davon mal abgesehen muss man sagen, daß NVidia meist Vorreiter bei neuen, mitunter sehr schönen Features ist.
- Oversampling: erst gab es DSR, später VSR
- variable Frameraten: erst gab es GSync, dann gab es Freesync
- GPU-Encoding: erst gab es NVENC, später gab es VCE
- 3D-Gaming: erst gab es 3DVision, eine eigene Lösung von AMD gibt es bis heute nicht (sie verweisen auf einen Drittanbieter-Treiber)
AMD hat dann im Nachhinein z.T. die bessere Umsetzung ... VSR ist beim Downsampling etwas besser als DSR, Freesync braucht kein teures Modul, der Drittanbieter-Treiber von Tridef unterstützt im Gegensatz zu 3DVision auch nicht-lizensierte Polfilter-Monitore, ...
Aber man muss auch mal anerkennen, daß es ohne NVidia solche Features vielleicht bis heute gar nicht gäbe. Innovation sieht man bei AMD selten.
Auch das so verhasste Gameworks ist im Prinzip erstmal nichts schlechtes.
Einige der Effekte sehen wirklich gut aus und nehmen den Entwicklern Arbeit ab, wenn sie die in ihre Games einbauen.
Physikalisch korrekter Rauch, sehr gute volumetrische Beleuchtung, sehr gute Umgebungsverdeckung, innovative Anti Aliasing Lösungen (es gab auch erst einige Zeit nur TXAA, bevor andere TAA Modi in Spielen auftauchten), etc.
Da kommt von AMD im Vergleich sehr, sehr wenig.
Dann darf man sich auch nicht beschweren, wenn einem die Konkurrenz Software-seitig die Butter vom Brot nimmt, und somit die eigene Hardware attraktiver macht.
duskstalker schrieb:
100 % ack
ich meine ja schon lange, das diese nividia optimierung durch nivida auch zum größten Teil erkauft wird.
W
Wadenbeisser
Gast
@ duskstalker
Der Vega Chip hat für Spieler durchaus ein Problem mit der Effizienz denn die Karten takten mal wieder ein gutes Stück oberhalb des Sweetspots. Er wurde meiner Meinung nach einfach zu weit an den Grenzbereich der Architektur getaktet, das sieht man auch daran dass man mit dem Endergiespar Profil zwar etwas Leistung verliert, die Karte aber auch deutlich effizienter läuft und genau das Gegenteil passiert wenn das Hochleistungsprofil geladen wird. Sie wird etwas schneller, frisst aber auch erheblich mehr Strom.
Zudem würde ich immer davon abraten Effizienz Vergleiche auf Basis der einseitigen UV und OC Spielerei aufzubauen. Damit macht man sich nur selbst was vor denn das Spielchen kann man letztendlich auch mit dem Konkurrenten treiben und schon sieht das Bild wieder anders aus.
Der Vega Chip hat für Spieler durchaus ein Problem mit der Effizienz denn die Karten takten mal wieder ein gutes Stück oberhalb des Sweetspots. Er wurde meiner Meinung nach einfach zu weit an den Grenzbereich der Architektur getaktet, das sieht man auch daran dass man mit dem Endergiespar Profil zwar etwas Leistung verliert, die Karte aber auch deutlich effizienter läuft und genau das Gegenteil passiert wenn das Hochleistungsprofil geladen wird. Sie wird etwas schneller, frisst aber auch erheblich mehr Strom.
Zudem würde ich immer davon abraten Effizienz Vergleiche auf Basis der einseitigen UV und OC Spielerei aufzubauen. Damit macht man sich nur selbst was vor denn das Spielchen kann man letztendlich auch mit dem Konkurrenten treiben und schon sieht das Bild wieder anders aus.
dersuperpro1337
Lieutenant
- Registriert
- Jan. 2015
- Beiträge
- 997
Danke für die ausführliche Antwort @duskstalker!
Entschuldige, dass ich Deine detaillierten und fundierten Aussagen so plump abschmettern muss. Aber bei Performance / Watt geht es mir nicht nur um FPS und den Verbrauch, sondern auch um die Temperatur.
Ich kann verstehen, dass ein schlechter Testparkour und fehlende Optimierung (undervolting o.ä.), Vega schlecht dastehen lässt, aber meine Motive sind viel simpler - vielleicht schon sehr nahetretend simpel:
Allein der Gedanke, dass man mit der gleichen Kühllösung wie bei der RX 64, eine entsprechende 1080 um x°C kühler und somit natürlich auch leiser betreiben könnte, lässt mich Vega gedanklich schon abschreiben. Was die Graka verbraucht, ist mir ziemlich egal.
Wenn ich für den gleichen Preis und die gleiche Performance, (potenziell) eine schon um 5-10° kühlere und somit auch leisere Karte bekomme, dann nehme ich die. Klar kann man sagen, dass man Vega theoretisch auch unter Wasser setzen kann, aber das kann man eine 1080 nunmal auch und letztlich muss der unumstrittene Mehrverbrauch ja irgendwo hin abgeführt werden. Das geht also entweder mit höheren Temperaturen oder einem aggressiveren Lüfter.
Und nachdem meine 7970 und meine 390 im Idle über 50°C (teils bis 59°C wegen 3x Monitoren) hatten und unter Last z.T. zwischen 80°C und 90° warm wurden, bin ich jetzt deutlich zufriedener mit meiner 1060, die im Idle auch mal die Lüfter aus haben kann. Ich habe es satt, wenn mein PC immer nur am brummen ist, selbst wenn ich ihn nur leicht beanspruche. Deshalb bin ich auch mit Verlust von der 390 zur ziemlich identischen 1060 gewechselt.
Und um diese Misere nicht zu wiederholen (oder die Karten in einen teuren Custom Loop zu stecken), möchte ich in Zukunft nur noch effiziente und leise Karten in Relation zu ihrer Leistung. Marken spielen dabei keine Rolle.
Entschuldige, dass ich Deine detaillierten und fundierten Aussagen so plump abschmettern muss. Aber bei Performance / Watt geht es mir nicht nur um FPS und den Verbrauch, sondern auch um die Temperatur.
Ich kann verstehen, dass ein schlechter Testparkour und fehlende Optimierung (undervolting o.ä.), Vega schlecht dastehen lässt, aber meine Motive sind viel simpler - vielleicht schon sehr nahetretend simpel:
Allein der Gedanke, dass man mit der gleichen Kühllösung wie bei der RX 64, eine entsprechende 1080 um x°C kühler und somit natürlich auch leiser betreiben könnte, lässt mich Vega gedanklich schon abschreiben. Was die Graka verbraucht, ist mir ziemlich egal.
Wenn ich für den gleichen Preis und die gleiche Performance, (potenziell) eine schon um 5-10° kühlere und somit auch leisere Karte bekomme, dann nehme ich die. Klar kann man sagen, dass man Vega theoretisch auch unter Wasser setzen kann, aber das kann man eine 1080 nunmal auch und letztlich muss der unumstrittene Mehrverbrauch ja irgendwo hin abgeführt werden. Das geht also entweder mit höheren Temperaturen oder einem aggressiveren Lüfter.
Und nachdem meine 7970 und meine 390 im Idle über 50°C (teils bis 59°C wegen 3x Monitoren) hatten und unter Last z.T. zwischen 80°C und 90° warm wurden, bin ich jetzt deutlich zufriedener mit meiner 1060, die im Idle auch mal die Lüfter aus haben kann. Ich habe es satt, wenn mein PC immer nur am brummen ist, selbst wenn ich ihn nur leicht beanspruche. Deshalb bin ich auch mit Verlust von der 390 zur ziemlich identischen 1060 gewechselt.
Und um diese Misere nicht zu wiederholen (oder die Karten in einen teuren Custom Loop zu stecken), möchte ich in Zukunft nur noch effiziente und leise Karten in Relation zu ihrer Leistung. Marken spielen dabei keine Rolle.
W
Wadenbeisser
Gast
@dersuperpro1337
Seit wann haben solche Karten die gleiche Kühllösung?
Da die Lautstärke des Kühlers vom Verbrauch und der eingesetzten Kühllösung abhängt und du dich darauf stützt löst sich dein ganzes Posting in Rauch auf.
Seit wann haben solche Karten die gleiche Kühllösung?
Da die Lautstärke des Kühlers vom Verbrauch und der eingesetzten Kühllösung abhängt und du dich darauf stützt löst sich dein ganzes Posting in Rauch auf.
dersuperpro1337
Lieutenant
- Registriert
- Jan. 2015
- Beiträge
- 997
Wadenbeisser schrieb:@dersuperpro1337
Seit wann haben solche Karten die gleiche Kühllösung?
Ganz simpel: Warum sollte ich mir eine RX 64 bzw. Vega generell kaufen, wenn ich davon ausgehen kann, dass eine ähnlich potente Kühllösung auf einer 1080 für niedrigere Temperaturen und weniger Lautstärke sorgt?
Das ist für mich z.T. eine Gewissenssache, die nur auf zu den aktuellen Bedingungen dazu kommt, dass AMD u.a. teurer ist, nicht so umfassend verfügbar ist und in einigen Anwendungen (bspw. Adobe Produkte) nicht vollständig / gut optimiert unterstützt wird.
Wenn all diese Faktoren nicht wären, wäre ich niemals gegen Vega. So sind es aber Kleinigkeiten, die mich zur Zeit davon abhalten Vega in Betracht zu ziehen.
Anders als einige, die generell gegen AMD sind, versuche ich lediglich, die kleinen Probleme / "Nervigkeiten" zu vermeiden, über die ich bisher schon öfter gestolpert bin.
Zuletzt bearbeitet:
W
Wadenbeisser
Gast
@dersuperpro1337
Nix für ungut aber du hast ganz einfach quatsch erzählt.
Du hast von 2 Karten geschrieben die die gleiche Kühllösung hätten aber genau diese gibt es nicht und damit ist das Posting quatsch.
Mit einem entsprechend dimensionierten Kühler könnte die Karte trotz des höheren Verbrauchs dennoch genau so leise sein.
Dann noch dein Beispiel mit dem multi Monitor Setup, schau dir mal die entsprechenden Test zu den Vergleichskarten aus der Zeit an. Die hohen Temperaturen in idle beim multi Monitor Betrieb beruhten darauf das die Karten hochtakteten und eben nicht mehr mit Idle Takt liefen. Bei 2 Bildschirmen hatten die Geforce Karten vorteile weil sie eben das nicht taten aber beim 3er Setup takteten sie ebenfalls rauf und fraßen zum Teil mehr als die Radeons. Wie verhält sich da die von dir gelobte Geforce?
Lt. Vega test lag der Idle Strombedarf der Vega bei 12W und da war es egal ob sie mit 1, 2 oder 3 Monitoren betrieben wurde.
Für die GTX1080 habe ich nur indirekt Werte gefunden. Beim Vega Test war sie in Idle mit 10W angegeben.
Im Test der GTX1080 waren es mit 2 Monitoren 2W mehr, bei 3 Monitoren 29W mehr als im 1er Setup.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/
https://www.computerbase.de/2016-05...nahme-des-gesamtsystems-multi-monitor-betrieb
Es mag ja sein das deine GTX1060 mit dem 3er Setup weniger Strom als die R9 390 frisst aber nvidias Gegenstück war seinerzeit die GTX980 Ti und die fraß beim 3er Setup lt. GTX1080 Test so ziemlich das gleiche.
Nix für ungut aber du hast ganz einfach quatsch erzählt.
Du hast von 2 Karten geschrieben die die gleiche Kühllösung hätten aber genau diese gibt es nicht und damit ist das Posting quatsch.
Mit einem entsprechend dimensionierten Kühler könnte die Karte trotz des höheren Verbrauchs dennoch genau so leise sein.
Dann noch dein Beispiel mit dem multi Monitor Setup, schau dir mal die entsprechenden Test zu den Vergleichskarten aus der Zeit an. Die hohen Temperaturen in idle beim multi Monitor Betrieb beruhten darauf das die Karten hochtakteten und eben nicht mehr mit Idle Takt liefen. Bei 2 Bildschirmen hatten die Geforce Karten vorteile weil sie eben das nicht taten aber beim 3er Setup takteten sie ebenfalls rauf und fraßen zum Teil mehr als die Radeons. Wie verhält sich da die von dir gelobte Geforce?
Lt. Vega test lag der Idle Strombedarf der Vega bei 12W und da war es egal ob sie mit 1, 2 oder 3 Monitoren betrieben wurde.
Für die GTX1080 habe ich nur indirekt Werte gefunden. Beim Vega Test war sie in Idle mit 10W angegeben.
Im Test der GTX1080 waren es mit 2 Monitoren 2W mehr, bei 3 Monitoren 29W mehr als im 1er Setup.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/
https://www.computerbase.de/2016-05...nahme-des-gesamtsystems-multi-monitor-betrieb
Es mag ja sein das deine GTX1060 mit dem 3er Setup weniger Strom als die R9 390 frisst aber nvidias Gegenstück war seinerzeit die GTX980 Ti und die fraß beim 3er Setup lt. GTX1080 Test so ziemlich das gleiche.
Zuletzt bearbeitet von einem Moderator:
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.875
Pizza-König schrieb:Ich würde gerne AMD kaufen, weil mir NVidia seit der GTX 970 etwas unsympatisch ist.
Aber dann muss von AMD auch etwas gleichwertiges kommen.
was ist denn gleichwertig? gleiche fps wie nvidia mit gleichem verbrauch in einem gameworks spiel?
genau so sieht nämlich die zukunft aus. wir haben ein paar wenige DICE und id Software / Bethesda spiele und der ganze rest optimiert einseitig auf nvidia und nutzt gameworks. es reicht ja schon wenn die cryengine oder unreal engine zum einsatz kommt, um nvidia nen heimvorteil zu verschaffen. macht auch keinen sinn auf amd zu optimieren, wenn die mit unter 10% marktanteile bei gamern vertreten sind und nvidia >90% hält. hier muss nvidia nichtmals eingreifen - auf amd optimieren ist einfach schon unwirtschaftlich.
der nachteil von amd zu nvidia alleine durch die software ist eine gpu generation. da kann man sich weiter hinstellen und "besseres" von amd fordern, wenn auf der anderen seite halt nie was gekauft wird und die marktanteile ständig sinken.
bessere gaming performance bei amd ist keine willensfrage, sondern hauptsächlich eine geld- und marktmachtfrage.
amd hat durch das mining komplett den anschluss verloren und nachdem sich die community alle mühe gegeben hat vega als eine beleidung aufzufassen, muss sich amd ernsthaft die frage stellen, ob man den pc gaming markt überhaupt noch mit dedicated gaming gpus versorgen will. wirtschaftlich ist das auch für amd nicht - jahrelang eine gpu arch entwickeln, die hinterher wegen ein paar % an breiter front abgelehnt wird, weil das unmögliche verlangt wird - nämlich nvidia zu schlagen, am besten noch zum halben preis.
im prinzip könnte man sich komplett auf APUs und embedded konzentrieren und so das geldloch gaming stopfen. gaming bringt amd derzeit nur eins: nen verlustvortrag für die lohnenden sparten. so wie ich das sehe sind dedicated gaming gpus von amd derzeit nur noch "fan service", der durch "gaming taugliche" compute karten ermöglich wird - nicht umgekehrt.
dersuperpro1337 schrieb:Allein der Gedanke, dass man mit der gleichen Kühllösung wie bei der RX 64, eine entsprechende 1080 um x°C kühler und somit natürlich auch leiser betreiben könnte, lässt mich Vega gedanklich schon abschreiben. Was die Graka verbraucht, ist mir ziemlich egal.
[...]
Und nachdem meine 7970 und meine 390 im Idle über 50°C (teils bis 59°C wegen 3x Monitoren) hatten und unter Last z.T. zwischen 80°C und 90° warm wurden, bin ich jetzt deutlich zufriedener mit meiner 1060.
die gtx 1080 ist auch nur ein mittelklassechip - der schritt von der 390 zur 1060 ist auch direkt ein abstieg um zwei performanceklassen / chipgrößen. natürlich ist die gtx 1060 hier deutlich pflegeleichter.
hardwaretechnisch ist vega 64 / 56 am ehesten mit der gtx 1080ti und titan xp vergleichbar. und eine custom 1080 ti schluckt auch ihre 300w.
das ist so als würde man behaupten skylake x wäre effizienter als threadripper, weil der 7700k weniger als der 1800x verbraucht und man sich aus dieser konsequenz nen i5 8400 kauft.
Wadenbeisser schrieb:@ duskstalker
Der Vega Chip hat für Spieler durchaus ein Problem mit der Effizienz denn die Karten takten mal wieder ein gutes Stück oberhalb des Sweetspots.
ja du hast absolut recht - ich habe ja nie behauptet, dass eine vega effizienter ist. mein punkt, dass für die effizienzmessungen ein heftiger pro nvidia bias vorliegt, der das ganze "problem" unnötig aufbläst. man liest nur noch von effizienz - das hat vor 5 jahren kein schwein interessiert.
Wadenbeisser schrieb:Er wurde meiner Meinung nach einfach zu weit an den Grenzbereich der Architektur getaktet...
vega war einfach noch nicht fertig, hätte aber schon wesentlich früher launchen sollen - wir hätten mittlerweile einen refresh auf neuer node. auf der anderen seite sind die "guten" spiele erst viel später gelauncht. hätte man zum release benchmark battlefront 2 und wolfenstein gehäbt, hätte man wesentlich zurückhaltender an den takt herangehen können. stattdessen musste vega in grünem gewässer das schwimmen lernen.
an der stelle möchte ich aber nochmal dran erinnern, dass der hbm2 speicher letztlich viel niedriger getaktet hat, als von amd angenommen. amd hat mit ca 1300mhz gerechnet - release vega liegt unter 1000 mhz - ausserdem ist der verbaute hbm2 speicher extrem wärmeempfindlich. und weil das noch nicht reicht ist der hbm2 speicher fast drei mal so teuer wie kalkuliert - von ca 65$ auf 160$
das i-tüpfelchen ist dann der 14m LPP prozess von glofo vs tsmc.
Wadenbeisser schrieb:Zudem würde ich immer davon abraten Effizienz Vergleiche auf Basis der einseitigen UV und OC Spielerei aufzubauen. Damit macht man sich nur selbst was vor denn das Spielchen kann man letztendlich auch mit dem Konkurrenten treiben und schon sieht das Bild wieder anders aus.
keine nvidia karte ist so schlecht konfiguriert wie vega. zudem bringt das UV in meinem rechenbeispiel 6% - der nvidia gameworks titel mit der unterirdischen radeon performance 20%. wenn das nicht einseitig ist, weiß ich auch nicht.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 236
- Aufrufe
- 22.268