Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Raytracing ohne RTX: Nvidia Pascal erhält DXR‑Support per Treiber
- Ersteller MichaG
- Erstellt am
- Zur News: Raytracing ohne RTX: Nvidia Pascal erhält DXR‑Support per Treiber
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 8.006
USB-Kabeljau schrieb:Ist das so?
Oder war das jetzt erstmal wieder nur so ne Behauptung aus dem Bauch heraus ohne jede Basis?
ich weiß nicht obs dir aufgefallen ist, aber in diesem beitrag:
https://www.computerbase.de/forum/t...dxr-support-per-treiber.1862063/post-22438917
steckt einiges an recherche, die du von deiner seite aus nicht betrieben hast.
du wirfst mir jetzt, trotz zahlreicher quellen, vor, ich würde "ohne basis" "aus dem bauch heraus" etwas behaupten.
lies dir den post durch, lies die verlinkungen.
USB-Kabeljau schrieb:Dann sollte AMD vielleicht mal an seiner Tesselation Performance schrauben.
in dem post habe ich erklärt, sogar mit offizieller tech-folie von amd, was es mit der tessellationsleistung von radeon karten auf sich hat. das was du da von dir gibst, bestätigt mir nur, dass du meinen post nicht aufmerksam gelesen hast.
USB-Kabeljau schrieb:Die Effekte werden möglicherweise so genutzt, daß sie NVidia-Karten sinnvoll auslasten und dabei ne schöne Optik rausholen.
auch diesen punkt habe ich meinem oben verlinkten post ausführlich behandelt. lesen.
USB-Kabeljau schrieb:Aber auch hier müsste ich erstmal wissen, ob das überhaupt so ist, wie du behauptest.
Daß Tesselation Leistung kostet, ist klar. Wie viel mehr es bei AMD als bei NVidia kostet, hätte ich gerne mal quantifiziert.
wieviel was wo leistung kostet, siehst du in diesem post. da ist einiges aufgeschlüsselt. kurz: sinnvolle menge an tessellation kostet bei amd und nvidia etwa gleich viel. sobald sub pixel tessellation genutzt wird (also pro pixel mehrere polygone) bricht die tessellationsleistung von radeonkarten schlagartig ein, wird aber in der amd folie erklärt. still dir mal vor, was "sub pixel tessellation" wirklich bedeutet und wie krass übertrieben die tessellation dann ist. sub pixel tessellation ist so fein aufgelöst, dass sich die informationen nichtmals mehr mit pixeln darstellen lassen.
die haare von geralt in w3 mit tess faktor 64 haben ein vielfaches an geometriepunkten, als es überhaupt möglich ist darzustellen.
stell dir vor du willst schuhe kaufen. du hast zwei füße, also kaufst du dir ein paar schuhe. das ist tessellation in einer sinnvollen anwendung. nvidia kommt jetzt aber her und verlangt, dass du nicht 1 paar schuhe kaufst, sondern 12 - und alle gleichzeitig anziehst. nvidia hat sich jetzt selber nen menschen mit 24 füßen gezüchtet, der hat kein problem mit den 24 schuhen. aber eigentlich braucht man nur zwei - also ziehst du 9 schuhe pro fuß übereinander, dann noch an die hände und zwei stiefel über den kopf. und jetzt machst du einen wettlauf gegen den 24-beiner und verlierst. dann kommt jemand her, und sagt, dass du halt einfach mehr füße brauchst.
das problem sind aber nicht die 2 füße, sondern die 24 schuhe.
das ist der unterschied zwischen "normaler" tessellation und "nvidia" tessellation.
USB-Kabeljau schrieb:Ich gebe zu, daß ich bei diesem Thema selbst noch nicht wirklich recherchiert habe.
Aber wenn man etwas behauptet, sollte man es auch nachweisen können ... und am besten nicht nur mit Einzelbeispielen, die man sich gerade rauspickt.
dann würde ich dir mal empfehlen eben dies zu tun, bevor man anderen vorwirft, sie würden haltlose behauptungen aufstellen - wenn du eigentlich faktisch belegte aussagen ohne recherche einfach so als aus der luft gegriffene behauptungen bezeichnest.
ich habe eine ganze reihe an beispielen genannt, ich kann aber keine allumfassende enzyklopädie über die negativen effekte von nvidia gameworks tessellation für alle jemals releasten spiele schreiben, nur damit manche leute mal anfangen das ganze nicht weiter als "amd-verschwörungstheorie" abzutun.
und um den bogen zum thema zu kriegen: geforce RTX ist gameworks reloaded. auch wenn viele der meinung sind, dass das alles ein "offener" direct x standard ist - war dx11 tessellation auch. bisher hat noch niemand dx12 real time raytracing am laufen gehabt, außer nvidia. zu behaupten, andere könnten hier die selbe performance erreichen, hängt massiv an zwei stellen:
1. wir wissen nicht, inwiefern microsoft und nvidia hier zusammengearbeitet haben und ob eine "nvidia rtx" umsetzung für andere überhaupt so "offen" ist, wie man behauptet. es würde ja schon reichen, dass sich die anderen mit einem unoptimerten code-haufen rumärgern müssen, während von haus aus auf den nvidia-ansatz optimiert wird, weil der der erste und einzig "brauchbare" ist - henne / ei problem. theorie und praxis sind auch immer zwei paar stiefel.
2. haben die anderen gar keine hardware, die nvidia mit genau dieser raytracing methode überhaupt das wasser reichen kann. was ist, wenn sich dx12 raytracing nur so anständig beschleunigen lässt, wie es nvidia vormacht? und jeder andere mit anderer hardware und ohne AI denoising (oder denoising über tensor) kommt nicht mal ansatzweise an die performance ran? die von crytek gezeigte technik auf voxel-basis scheint nicht das zu sein, was DX12 DXR vorsieht. Man braucht ja nur mal schauen, wie groß die lücke zwischen cuda und openCL ist.
Dai6oro schrieb:. Das mit Tesselation ist ein alter Hut und es gab und gibt keinerlei Gründe den Faktor 64 anzulegen außer man möchte seine eigenen alten Karten und die Konkurrenz ausstechen.
Dabei vergisst du wohl zufällig, dass nicht Nvidia die Spiele programmiert.
Wenn ich mir so diesen FC2 vs FC5 vergleich ansehe - wozu dann RT ? Es werden soviel Features und Möglichkeiten nicht genutzt welche mehr Sinn ergeben als RT. Es ist mittlerweile einfach zu viel Geld im Spiel im Gaming und Hardware Business. Das Endprodukt sind unfertige Spiele mit Haufen DLC´s und Features welche uns als Innovationen verkauft werden und andere gleichzeitig unter den Teppich gekehrt werden.
Luxmanl525
Admiral
- Registriert
- Mai 2007
- Beiträge
- 9.185
Hallo zusammen,
das ist für mich jetzt der eindeutige Beweise dafür, daß es mit der Raytracingunterstützung durch die Speilefirmen nicht so weit her ist, wie es Nvidia bei Veröffentlichung Glauben machen wollte.
Und ich wiederhole mich mit meinem seinerzeitigen Statement gerne nochmal, Nvidia versucht hier, Respektive wie zu Zeiten von Phys-X, wieder einen Standard auf Biegen und Brechen durchzusetzen.
Das ist jetzt wirklich schon beinahe als Offenbarungseid zu Sehen. Man erinnere sich, auf Pascal sollte sowas gar nicht möglich sein laut Nvidia! Soll sich jeder seinen Reim selbst drauf machen.
So long...
das ist für mich jetzt der eindeutige Beweise dafür, daß es mit der Raytracingunterstützung durch die Speilefirmen nicht so weit her ist, wie es Nvidia bei Veröffentlichung Glauben machen wollte.
Und ich wiederhole mich mit meinem seinerzeitigen Statement gerne nochmal, Nvidia versucht hier, Respektive wie zu Zeiten von Phys-X, wieder einen Standard auf Biegen und Brechen durchzusetzen.
Das ist jetzt wirklich schon beinahe als Offenbarungseid zu Sehen. Man erinnere sich, auf Pascal sollte sowas gar nicht möglich sein laut Nvidia! Soll sich jeder seinen Reim selbst drauf machen.
So long...
K
KlaraElfer
Gast
duskstalker schrieb:ich habe die letzten 20 jahre nicht gepennt oder leide an amnesie. für solche äußerungen, wie du sie tätigst, muss man für "neutralität", wie du sie forderst, schon auf 1-2 augen blind sein.
Ich finde deinen langen Post respektabel aber alleine die Tatsache, dass manche Entwickler Tesselationfaktoren geclampt haben oder mancher content "overtesselated" war, täuscht das nicht hinweg dass AMD´s Geometrieleistung relativ schwach war und GCN bereits ab Faktor 8 einen wesentlich höheren Performanceinpact zu erleiden hatte. Vega/Radeon VII kommen auch mit Hairworks inkl x64 Faktor problemlos zurecht und wenn man genau hinsieht dann sehen die Haare eines Gerald in Bewegung ruhiger mit Faktor x64 aus als mit x16 oder x32.
RushSyks schrieb:Shadow of the Tomb Raider, bitteschön. Skalierung AMD vs. Nvidia ist quasi identisch außer beim am niedrigsten Preset. Siehe auch CB Test. Das gilt hier sogar für alle Gameworks Features.
Tatsache ist dass die meisten Gameworksspiele oder eigentlich fast alle außer Ausnahmen wie den Hexer oder Ghost Recon Wildlands oder FFXV AMD bei der Tesselation eigentlich überhaupt nicht benachteiligen und für die wirklichen Fälle hat AMD den Tesselationsschalter im Treiber, also Benachteiligung existiert in der Praxis eigentlich nirgends. Um mal noch ein gefordertes Spiel von Duskstalker zu nennen: Mass Effekt Andromeda, nutzt Standardmäßig Tesselation Faktor 8 und ist ein Gameworks Spiel.
duskstalker schrieb:nvidia (1) nutzt raytracing mit eigens dafür optimierter hardware nur dafür aus, andere damit auszusperren. die wollen sich intel und amd mit einer weiten verbreitung von RTX vom hals halten - (2)keiner der anderen hat bis dato eine hardware, die das kann, was nvidia hier macht, weil das eigentlich absoluter wahnsinn ist. und (3)nvidia hat hier mal wieder absichtlich den "tessellations"weg gewählt, in den man unmengen an leistung und spezielle hardware buttern muss.
1. Nein, Nvidia lässt Raytracing in Zukunft auch ganz normal mit Compute-Shadern über Pascal laufen.
DXR ist keine Nvidia Entwicklung, sondern eine Umsetzung von Microsoft für die Intel und AMD genauso ihr Backend anpassen können, RTX ist Nvidias backend und ihr Ding.
2. Nein, jede Hardware ist in der Lage in Echtzeit zu raytracen, selbst Pascal, Vega und auch Tahiti, jede Directx12 kompatible GPU ist dazu in der Lage
3. Grundsätzlich verstehe ich nicht wieso du darauf kommst. Es steht jedem Hersteller frei ihre Hardware gemäß Raytracing anzupassen, da gibt es nunmal keinen Königsweg. AMD arbeitet schon bereits seit der Ankündigung von DXR an Hardware und einer treiberimplementierung. Der Standard wurde nicht alleine von Nvidia verabschiedet und ist nicht proprietär.
Zuletzt bearbeitet von einem Moderator:
Volkimann
Commander
- Registriert
- Jan. 2014
- Beiträge
- 3.059
Tja manchmal würde es auch wirklich helfen, den Kommentar, den man kommentiert ohne gleich den typischen Beißreflex zu zeigen, auch zu verstehen.ZeroZerp schrieb:Tja- manchmal würde es wirklich helfen, wenn man die Artikel, die man kommentiert und die dazu verknüpften Quellen einfach durchliest, ohne das übliche voreingenommene Programm abzuspulen.
Du hast im Origianlartikel Rechenzeitdiagramme, die genau zeigen was wann wo berechnet wird und eine Erklärung dazu welcher Effekt wie sehr auf das RT Kontingent geht (Reflexionen relativ wenig, GI z.B. relativ viel).
Applaus, was hat das jetzt damit zu tun das nvidia über den Treiber durchaus steuern kann wie etwas wie effektiv berechnet wird - wie es schon bei (CPU) PhysX geschehen ist? Richtig, da hat nvidia schön in effektiven x87 Code verwendet, das ganze auf einen Kern beschränkt um ihre GPUs als PhysX Beschleuniger in entsprechendem Licht darzustellen.
Nvidia wäre ja zumindest schön blöd wenn sie nicht ihre RTX GPUs entsprechend pushen würden um zu zeigen wie toll und notwendig ihre spezialisierten Transistoren sind.
Einfachste Methode: den RT Treiber für Pascal entsprechend unoptimiert "lassen".
Ergänzung ()
Komisch, dabei schickt doch nvidia eigene Entwickler und somit Manpower in die Spielestudios um eine optimale Einbindung von nvidia eigenen Features zu gewährleisten. Aber die haben ja bestimmt keinerlei Einfluss.kisser schrieb:Dabei vergisst du wohl zufällig, dass nicht Nvidia die Spiele programmiert.
Zuletzt bearbeitet:
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.643
Volkimann schrieb:Richtig, da hat nvidia schön in effektiven x87 Code verwendet, das ganze auf einen Kern beschränkt um ihre GPUs als PhysX Beschleuniger in entsprechendem Licht darzustellen.
Nicht multithreaded?
Das sieht aber anders aus.
Nvidia wäre ja zumindest schön blöd wenn sie nicht ihre RTX GPUs entsprechend pushen würden um zu zeigen wie toll und notwendig ihre spezialisierten Transistoren sind.
Einfachste Methode: den RT Treiber für Pascal entsprechend unoptimiert "lassen".
Ja- Wenn man hier wie bei einigen üblich immer von der maximalen Bösartigkeit und Hinterhältigkeit bei nVidia ausgeht, dann könnten die das tun.
Nur haben sie diesbezüglich überhaupt keine Veranlassung und haben ja bereits gezeigt, dass sie mit einem nur 60% Abschlag an Performance für RT on auf einer GTX 1080 TI alles andere als einen schlechten Job in Sachen treiberoptimierung hinlegen.
Wenn sie mit dem Treiber wirklich Marketing betreiben wollen hilft ihnen keine 1 FPS Lösung dafür. In gewissen Maße spielbar muss es ja bleiben...
Sorry für mein Beissen, falls es so angekommen ist...
LG
Zero
Zotac2012 schrieb:Wenn man sieht, wie die Leistung von RTX Features in den Games bei den Turing Grafikkarten, mit ihren extra spezialisierten RT-Kernen einbricht, will man sich gar nicht vorstellen, was DXR bei der Leistung mit den Pascal Grafikkarten in den Games anrichtet. Vermutlich liegt der tiefere Sinn darin, dass man jetzt DXR bei Pascal Grafikkarten per Treiber ermöglicht, um zu zeigen, wie toll diese neuen RTX-Features sind.
Und wenn man diese wirklich in ihrer vollen Pracht bestaunen und erleben möchte, man sich unbedingt eine RTX-Turing Grafikkarte mit speziell dafür ausgelegter Hardware zulegen sollte. Und dafür ist doch der geringe Aufpreis bei den Turing Grafikkarten mehr als gerechtfertigt, schließlich bekommt man ja auch ein mehr an spezieller Hardware im GPU-Chip! Das ist wohl Marketing in ihrer ureigenen Form!
Mir wäre ein Filter wie z.B. DLSS, der weiniger Leistung kostet und dafür ein deutlich besseres und schärferes Bild bietet, wesentlich lieber als Raytracing. Aber das ist für Nvidia wohl nicht so Sexy, da man damit wohl nicht so viel verdienen kann, wie es bei den RTX-Turing Grafikkarten mit ihren extra spezialisierten RT-Kernen, der Fall ist!
„Natürlich funktioniert Raytracing auch auf AMD-GPUs, jedoch ohne passende Unterstützung seitens der Hardware und Software ist dies quasi unbrauchbar. Exakt in diesem Punkt will AMD ansetzen. So soll zukünftige Hardware Raytracing unterstützen ...“
https://www.computerbase.de/news/prozessoren/amd-raytracing-16-kerne-pcie-4-0.66239/
Wie längst bekannt will auch AMD in zukünftigen Grafikkarten Hardware für Raytracing nutzen, siehst du und alle anderen Zukunftsverweigerer das dort ähnlich wie bei Nvidia? Achtung rhetorische Frage, die Antwort ist dir wohl auch selbst bewusst
BTT:
Wie bereits mehrfach gesagt ist es ein begrüßenswerter Schritt, auch wenn es praktisch in den meisten Fällen wenig Sinn macht wird ein kostenloses Feature nur die üblichen Verdächtigen stören. Sobald AMD dann auch Ihren versprochenen DXR Einstieg bringt steht der Zukunft von Raytracing in Spielen nichts mehr im Weg.
K
KlaraElfer
Gast
duskstalker schrieb:@USB-Kabeljau
natürlich kommen die spiele von den studios und nicht nvidia - aber wieso funktioniert die optimierung bei "gaming evolved" titeln so gut, und die optimierung bei gameworks immer "zufällig" so schlecht?
Mir ist schon klar worauf du hinauswillst, aber wo siehst du das denn außer vielleicht beim Hexer?
In Batman kostet das 7% mehr auf AMD Hardware, Crysis 2 ist kein Gameworkstitel, Alien vs. Predator ist ein Titel von vor 10 Jahren und war AMD Gaming evolved und lief auf Cypress mit extrem geringfügiger kaum sichtbarer Tesselation, während in The Witcher das Wasser, Geralds Haare und auch andere tesseliert wurden, sowie die Umgebung.
duskstalker schrieb:@USB-Kabeljau
als weiteres beispiel möchte ich noch ghost recon wildlands anbringen - das ding strotzt nur so vor gameworks-tessellation. tessellation godrays, tessellation turf, gelände-tessellation. was sagt die performance von amd gpus in dem titel?
Laut deinem Link ist die RX 480 9% hinter der GTX 1060, finde ich ehrlichgesagt kein Indiz, angesichts dessen dass die PCGH die RX 480 auch etwa 10% hinter der 1060 im Mittel in Full HD sieht.
Ich sehe das persönlich komplett anders als du, ich sehe keinen Beleg dafür, dass Nvidia Tesselation dafür einsetzt um den Mitbewerber zu schädigen, gerade auch deswegen weil Hairworks nur ein optionales Feature ist welches man als AMD User gar nicht aktivieren muss.
TressFX ist aber leistungsschonender, das muss man AMD sicherlich zu Gute halten.
Aber Hairworks ist bei vielen Strähnen darauf ausgelegt mindestens x32 Tess Faktor, am besten x64 Tess Faktor in Bewegung einzustellen, alles was darunter ist sieht am Screenshot vielleicht okay aus, flimmert aber in Bewegung.
Zuletzt bearbeitet von einem Moderator:
Volkimann
Commander
- Registriert
- Jan. 2014
- Beiträge
- 3.059
Ohja, inzwischen haben sie es nach Jahren (der Kritik) optimiert. Nachdem das Thema GPU PhysX kein Kaufargument mehr ist. GPU PhysX ist schlichtweg tot.ZeroZerp schrieb:
Nvidia ist ein börsennotiertes Unternehmen mit einer entsprechenden Vergangenheit, und dein Aktienwert hat sich in den letzten Monaten halbiert.Ja- Wenn man hier wie bei einigen üblich immer von der maximalen Bösartigkeit und Hinterhältigkeit bei nVidia ausgeht, dann könnten die das tun.
Nur haben sie diesbezüglich überhaupt keine Veranlassung und haben ja bereits gezeigt, dass sie mit einem nur 60% Abschlag an Performance für RT on auf einer GTX 1080 TI alles andere als einen schlechten Job in Sachen treiberoptimierung hinlegen.
Wenn sie mit dem Treiber wirklich Marketing betreiben wollen hilft ihnen keine 1 FPS Lösung dafür. In gewissen Maße spielbar muss es ja bleiben...
Sorry für mein Beissen, falls es so angekommen ist...
LG
Zero
Was würdest du machen als Unternehmer?
Steckst du viel Geld in Treiber um deine alte GPU Generation noch superduper auf RT zu optimieren und die Prozentwerte zwischen alter und neuer Generation so klein wie möglich zu halten?
Oder nutzt du das ganze eher dafür um zu zeigen "Seht her RT auf alter Generation so, aber mit unseren neuen teuren RTX Karten, da könnt ihr das Ergebnis haben"?
Und schon kann man den potentiellen Konsumenten verklickern das es sich lohnt in die neue Generation zu investieren.
.Sentinel.
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 8.643
Öhm mein Link ist von 2010.Volkimann schrieb:Ohja, inzwischen haben sie es nach Jahren (der Kritik) optimiert.
Nachdem das Thema GPU PhysX kein Kaufargument mehr ist. GPU PhysX ist schlichtweg tot.
Mich nicht auf das Casino "Börse" verlassen, das mit der Realwirtschaft nicht korreliert?Nvidia ist ein börsennotiertes Unternehmen mit einer entsprechenden Vergangenheit, und dein Aktienwert hat sich in den letzten Monaten halbiert.
Was würdest du machen als Unternehmer?
Wenn dadurch das Kalkül des Marketings aufgeht und dass vielleicht der ein oder andere Entwickler dann doch noch mit GTX Karten versucht das Maximum rauszuholen, dann ja.Steckst du viel Geld in Treiber um deine alte GPU Generation noch superduper auf RT zu optimieren und die Prozentwerte zwischen alter und neuer Generation so klein wie möglich zu halten?
Das ist der zweite positive Effekt dieses Schachzugs. Man fixt die User an.Oder nutzt du das ganze eher dafür um zu zeigen "Seht her RT auf alter Generation so, aber mit unseren neuen teuren RTX Karten, da könnt ihr das Ergebnis haben"?
Was allerdings auch nur klappt, wenn das Gesamtprinzip DXR generell zu überzeugen weiss.
Ist klar- Da sind mehrere Fliegen mit einer Klappe geschlagen worden.Und schon kann man den potentiellen Konsumenten verklickern das es sich lohnt in die neue Generation zu investieren
Das kann man ihnen aber doch kaum zum Vorwurf machen.
-Erstens sind sie die Schreier los, die immer behaupten DXR wäre Hardwareproprietär.
-Zweitens sind sie die Schreier los, die behaupten die RT Cores würden nicht existieren und wären Fake.
-Drittens werden sie die Schreier los, die aus reiner Neugierde und für Testzwecke den Fallback- Treiber wieder zurückhaben wollten.
-Viertens verbreitern sie die Installationsbasis
-Fünftes locken sie dadurch vielleicht doch Entwickler an, die Versuchen DXR so weit zu optimieren, dass es auch auf GTX Karten läuft, was wieder der gesamte Palette an Karten zu Gute käme.
-Sechstens ziehen sie damit vielleicht ein par Käufer an, die durch die Demo Blut geleckt haben.
Somit eine in allen Bereichen vernünftige Maßnahme, die sie da ergriffen haben.
LG
Zero
lynx007 schrieb:Du hast 100 Watt mehrverbrauch und das sind bei 2std Täglich 20€ pro Jahr. Sprich hast du die Karte zb ca 5 nutzt schon etwa 100€ die du deinem Stromanbieter schenkst. Spielst du nur 7 std pro Woche, dann sind es immer noch 50€. Dazu gibt es die Vega mit nem vernünftigen Kühler frühestens ab 330€.
Benji21 schrieb:Nein, das stimmt so nicht. Das ist eine Milchmädchenrechnung: rüstet man vorher auf sparst du nur Prozentsatz X von deiner 5 Jahres Rechnung. Dazu schenke ich die dem nicht sondern habe sogar einen Gegenwert: mehr Leistung über einen längeren Zeitraum weil dass die 6GB Ram in naher Zukunft in Full HD limitieren ist so sicher wie das Amen in der Kirche. Momentan fängt der Spaß ja schon an und wird mit Sicherheit nicht weniger werden.
lynx007 schrieb:Ach Quatsch, vielleicht irre ich mich. Aber nach 3 AMD karten wo es nie am Speicher gefehlt habe, wage ich die Prognosse das eher die FPS limitieren bevor der Speicher limitiert. Klar wer mit Texturmodsarbeitet und 30MaxFPS noch für Spielbar hält der wird nicht zu einer 1660ti greifen. Ich für meinen Teil würde echer zu einer 1660ti greeifen als zu einer 590, eher zu 2060 als zu einer Vega56.
Umd zum Strom, da meinte jemand 100 Watt sind bei 2std täglich, 14 std Wöchentlich, 80€ auf 4 Jahre. Ist diese Rechnung falsch? Falls ja warum? Ich meine 80€ sind 80€. Selbst wen ich wenig Spiele und dies zahl halbiere sind es 40€. 40€ die ich dem Stromanbiete schenke dich ich auch in eine 2060 stecken könnte.
@lynx007 Also die Effizienz Thematik, bzw. Stromverbrauch, als wichtiger anzusehen, als die 6GB Speicherthematik, gerade in Hinblick auf die nächsten 5 Jahre, wie du es geschrieben hast. Respekt. Finde ich schon krass bzw. gewagt.
Zum Thema 6GB allg.
Dazu muss man gar nicht die ganze Diskussion wieder aufreißen. Mir reicht es schon von den immer wieder kleinen Indizien zu lesen, in denen man schon erahnen kann, dass 6GB nicht immer vollends ausreicht, um die Leistung der eigentlichen GPU gerecht zu werden.
Wie man sich dann heutzutage noch eine 1660 kauft, kann ich verstehen, aber bei 1660 TI und auf jeden fall bei der 2060 eigentlich nicht mehr.
Diese Speicher-Thematik aber gerade in Richtung Zukunft (über mehrere Jare) als weniger wichtig anzusehen, als 20€ Stomverbrauch im Jahr.
Und nochmal. Auch wenn einige das hier nicht hören wollen. Eine Vega kann man klasse undervolten. Klar, macht das ein Otto-Normalverbraucher nicht. Aber die interessieren sich dann sicherlich auch nicht dafür, wie viel der PC verbraucht.
Zur allg. PC Effizienz gehört auch noch ein wenig mehr, als nur die Grafikkarte. "Noname"-Netzteil vs. 80 plus gold,platin und was es nicht alles gibt. Die letzten 0,1VCore auf die CPU hauen, für 150 Mhz am ende gegenüber CPU UV usw.
Fand die Diskussion 1070 vs 1660ti schon extrem, wo einige leute die 20 Watt stromverbrauch als wichtiger ansehen, als 2 GB Vram
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.815
Das ist ja alles schön und gut, aber darf ich dich dran erinnern, dass nicht die AMD Vega RTX bekommt sondern NVidia Pascal und Turing Karten. Ich könnte hier jetzt auch über den Brexit schreiben, weil mir das grad durch den Kopf geht....mach ich aber nicht.😀😉Casillas schrieb:@lynx007 Also die Effizienz Thematik, bzw. Stromverbrauch, als wichtiger anzusehen, als die 6GB Speicherthematik, gerade in Hinblick auf die nächsten 5 Jahre, wie du es geschrieben hast. Respekt. Finde ich schon krass bzw. gewagt.
Zum Thema 6GB allg.
Dazu muss man gar nicht die ganze Diskussion wieder aufreißen. Mir reicht es schon von den immer wieder kleinen Indizien zu lesen, in denen man schon erahnen kann, dass 6GB nicht immer vollends ausreicht, um die Leistung der eigentlichen GPU gerecht zu werden.
Wie man sich dann heutzutage noch eine 1660 kauft, kann ich verstehen, aber bei 1660 TI und auf jeden fall bei der 2060 eigentlich nicht mehr.
Diese Speicher-Thematik aber gerade in Richtung Zukunft (über mehrere Jare) als weniger wichtig anzusehen, als 20€ Stomverbrauch im Jahr.
Und nochmal. Auch wenn einige das hier nicht hören wollen. Eine Vega kann man klasse undervolten. Klar, macht das ein Otto-Normalverbraucher nicht. Aber die interessieren sich dann sicherlich auch nicht dafür, wie viel der PC verbraucht.
Zur allg. PC Effizienz gehört auch noch ein wenig mehr, als nur die Grafikkarte. "Noname"-Netzteil vs. 80 plus gold,platin und was es nicht alles gibt. Die letzten 0,1VCore auf die CPU hauen, für 150 Mhz am ende gegenüber CPU UV usw.
Fand die Diskussion 1070 vs 1660ti schon extrem, wo einige leute die 20 Watt stromverbrauch als wichtiger ansehen, als 2 GB Vram
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.865
Welches Indiz den? Die GPU ist schnell genug für FHD und gerade so WQHD. Selbst letzteres wird man sehr warscheinlich Problemlos zum laufen bekommen wen man vielleicht nicht alle schieberegler auf Maximum stellt.Casillas schrieb:@lynx007 Mir reicht es schon von den immer wieder kleinen Indizien zu lesen, in denen man schon erahnen kann, dass 6GB nicht immer vollends ausreicht, um die Leistung der eigentlichen GPU gerecht zu werden.
Warum? Warum diese Karten keinen Sinn, insbesondere wen mich AMD Karten 20€ im Jahr mehrkosten verursachen? Warum soll ich eine RX 590 Kaufen wen ich für bisl mehr eine 2060 bekomme, und mich nach 3 Jahren plus minus Null kostet weil sie 100 Watt weniger aus der Dose zieht. Warum soll ich mehr Geld an meinen Stromanbieter zahlen anstatt es gleich in eine Leistungstärkeere und Effizentgere GPU zu stecken? Ich kauf doch nicht das schlechtere Auto welches in der Anschaffung vielleicht noch gleich kostet, aber mich dann im Verbrauch und der Wartung derrat viel kostet das ich mich insgesamt über die Jahre mehr bezahle, soviel mehr das ich gleich ein besseres Model eine klasse höher hätte einsteigen können. Das ist doch totaler Schwachsinn. AMD hat nur den vorteil von mehr Speicher, aber das Geld was ich spare gegenüber einer 2060 überweise über 3 Jahre an den Stromanbieter. Was fürn Sinn hat das?Casillas schrieb:Wie man sich dann heutzutage noch eine 1660 kauft, kann ich verstehen, aber bei 1660 TI und auf jeden fall bei der 2060 eigentlich nicht mehr.
Diese Speicher-Thematik aber gerade in Richtung Zukunft (über mehrere Jare) als weniger wichtig anzusehen, als 20€ Stomverbrauch im Jahr.
Auch mich interessiert es nicht. Warum soll ich die Arbeit von AMD übernehmen um nur damit auf die Effizens der Konkurenz zu kommen. Was dazu auch reines Glücksspiel ist. Weil wen das Generell, also zu 100% der Fall wäre, dann würde es doch AMD selbst tun. Die wollen die Ausbeute erhöhen und drehen deshalb den vcore an die Spietze.... Und was habe ich bestenfall gewonnen. Nen chip der durch anderwolten bestenfalls gleich schnell wie nVidia läuft. Aber im schlechtestens fall einfach so nciht Stabil ist.Casillas schrieb:Und nochmal. Auch wenn einige das hier nicht hören wollen. Eine Vega kann man klasse undervolten. Klar, macht das ein Otto-Normalverbraucher nicht. Aber die interessieren sich dann sicherlich auch nicht dafür, wie viel der PC verbraucht.
Wen du die 2GB nicht brauchst, dann braucst du die nicht. Den Stromverbrauch kann man messen und du weiß das dann relativ genau was du Mehr bezahlst. 20 Watt sind Quatsch. Aber wir reden hier ja nicht über 20 sondern 100Watt. Also der Stromverbrauch ist 500% höher und das siehst du auf der Stromrechnung am Ende des Jahres.Casillas schrieb:Fand die Diskussion 1070 vs 1660ti schon extrem, wo einige leute die 20 Watt stromverbrauch als wichtiger ansehen, als 2 GB Vram
Wieviel Speicher du brauchst ist reine Spekulation. Nicht jeder nutzt Texturmods. Und auch Spieleherstelle möchten bestimmt kein Spiel auf den Markt bringen welches sich nicht mehr mit einer 1050, 1060 und 1660 nicht mehr betreiben ließe. Das ist ein Quatsch davon aus zu gehen. 90% der Spiele werden sowieso portiert. Wieviel vram hat den die PS4? Die XBOX? Wieviel haben 90% der Nutzer von Steam?
Und was machst du wen der Speicher doch nicht reicht? Dann gehst halt eine oder zwei einstellungen bei den Texturen runter. Siehst vermutlich sowieso keinen Unterschied, außer bei den FPS. 260 Watt bei Witcher3 auf dem rx 590 ist schon eine Hausnummer....
<iframe width="560" height="315" src="
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Zuletzt bearbeitet:
Heschel
Lt. Commander
- Registriert
- Feb. 2017
- Beiträge
- 1.158
pietcux schrieb:Das ist ja alles schön und gut, aber darf ich dich dran erinnern, dass nicht die AMD Vega RTX bekommt sondern NVidia Pascal und Turing Karten. Ich könnte hier jetzt auch über den Brexit schreiben, weil mir das grad durch den Kopf geht....mach ich aber nicht.😀😉
Die bekommen was? Was den, wenn die Grafikleistung nicht ausreicht? Eigentlich garnichts.
pietcux schrieb:Das ist ja alles schön und gut, aber darf ich dich dran erinnern, dass nicht die AMD Vega RTX bekommt sondern NVidia Pascal und Turing Karten. Ich könnte hier jetzt auch über den Brexit schreiben, weil mir das grad durch den Kopf geht....mach ich aber nicht.😀😉
Und wo bitte habe ich was von RTX geschrieben?
Ich habe die Thematik Effizienz/Verbrauch vs. speicherthematik kommentiert.
Das hat mit RTX mal eben gar nichts zu tun. Kannst gerne nochmals meine Kommentare zitieren und über den Brexit schreiben. Das wäre bezogen auf meine letzten Kommentare genauso offtopic wie RTX.
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.815
Das würde in der Schule heißen: Am Thema vorbei.Casillas schrieb:Und wo bitte habe ich was von RTX geschrieben?
Ich habe die Thematik Effizienz/Verbrauch vs. speicherthematik kommentiert.
Das hat mit RTX mal eben gar nichts zu tun. Kannst gerne nochmals meine Kommentare zitieren und über den Brexit schreiben. Das wäre bezogen auf meine letzten Kommentare genauso offtopic wie RTX.
Oder hast du den Artikel Titel schon vergessen?
lynx007 schrieb:Welches Indiz den? Die GPU ist schnell genug für FHD und gerade so WQHD. Selbst letzteres wird man sehr warscheinlich Problemlos zum laufen bekommen wen man vielleicht nicht alle schieberegler auf Maximum stellt.
Warum? Warum diese Karten keinen Sinn, insbesondere wen mich AMD Karten 20€ im Jahr mehrkosten verursachen? Warum soll ich eine RX 590 Kaufen wen ich für bisl mehr eine 2060 bekomme, und mich nach 3 Jahren plus minus Null kostet weil sie 100 Watt weniger aus der Dose zieht. Warum soll ich mehr Geld an meinen Stromanbieter zahlen anstatt es gleich in eine Leistungstärkeere und Effizentgere GPU zu stecken? Ich kauf doch nicht das schlechtere Auto welches in der Anschaffung vielleicht noch gleich kostet, aber mich dann im Verbrauch und der Wartung derrat viel kostet das ich mich insgesamt über die Jahre mehr bezahle, soviel mehr das ich gleich ein besseres Model eine klasse höher hätte einsteigen können. Das ist doch totaler Schwachsinn. AMD hat nur den vorteil von mehr Speicher, aber das Geld was ich spare gegenüber einer 2060 überweise über 3 Jahre an den Stromanbieter. Was fürn Sinn hat das?
Auch mich interessiert es nicht. Warum soll ich die Arbeit von AMD übernehmen um nur damit auf die Effizens der Konkurenz zu kommen. Was dazu auch reines Glücksspiel ist. Weil wen das Generell, also zu 100% der Fall wäre, dann würde es doch AMD selbst tun. Die wollen die Ausbeute erhöhen und drehen deshalb den vcore an die Spietze.... Und was habe ich bestenfall gewonnen. Nen chip der durch anderwolten bestenfalls gleich schnell wie nVidia läuft. Aber im schlechtestens fall einfach so nciht Stabil ist.
Wen du die 2GB nicht brauchst, dann braucst du die nicht. Den Stromverbrauch kann man messen und du weiß das dann relativ genau was du Mehr bezahlst. 20 Watt sind Quatsch. Aber wir reden hier ja nicht über 20 sondern 100Watt. Also der Stromverbrauch ist 500% höher und das siehst du auf der Stromrechnung am Ende des Jahres.
Wieviel Speicher du brauchst ist reine Spekulation. Nicht jeder nutzt Texturmods. Und auch Spieleherstelle möchten bestimmt kein Spiel auf den Markt bringen welches sich nicht mehr mit einer 1050, 1060 und 1660 nicht mehr betreiben ließe. Das ist ein Quatsch davon aus zu gehen. 90% der Spiele werden sowieso portiert. Wieviel vram hat den die PS4? Die XBOX? Wieviel haben 90% der Nutzer von Steam?
Und was machst du wen der Speicher doch nicht reicht? Dann gehst halt eine oder zwei einstellungen bei den Texturen runter. Siehst vermutlich sowieso keinen Unterschied, außer bei den FPS. 260 Watt bei Witcher3 auf dem rx 590 ist schon eine Hausnummer....
<iframe width="560" height="315" src="YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung." frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
Schön, wie alles wieder aus dem Zusammenhang gerissen wird. Da sind echt einige Profis hier.
Ich bezog mich 0 auf die 590. Das die von der Effizienz her Mist ist, ist mir auch klar.
Ich bezog mich auf die von DIR angesprochenen nächsten 5 Jahre. In Hinblick dessen die Speicherthematik so runter zu spielen finde ich mutig. Gerade auch wenn du noch Konsolen ansprichst. Soweit ich weiß, kommen innerhalb der nächsten 5 Jahre, wer weiß, was diese Konsolen für Speicher haben, wenn sie nochmehr als die heutigen Topmodelle von PS4 und Xbox auf 4K ausgelegt sind.
Willst du die Hand dafür ins Feuer legen, dass man für die nächsten 5 Jahre mit 6 GB auskommt?
Und lenke bitte nicht ab, von den nächsten 5 Jahren und von wegen dann tauscht man die Karten ehh. Die 5 Jahre hast du angesprochen !!!.
Ergänzung ()
pietcux schrieb:Das würde in der Schule heißen: Am Thema vorbei.
Oder hast du den Artikel Titel schon vergessen?
Hast du überhaupt gelesen, was ich geschrieben habe? Nochmal fett und unterstrichen.
Casillas schrieb:Und wo bitte habe ich was von RTX geschrieben?
Ich habe die Thematik Effizienz/Verbrauch vs. speicherthematik kommentiert.
Das hat mit RTX mal eben gar nichts zu tun. Kannst gerne nochmals meine Kommentare zitieren und über den Brexit schreiben. Das wäre bezogen auf meine letzten Kommentare genauso offtopic wie RTX.
pietcux
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.815
Mach ruhig weiter, ich würde hier gerne über dss Thema des Threads lesen. Der RAM oder der Stromverbrauch von was auch immer ist hier nicht gefragt.Casillas schrieb:Schön, wie alles wieder aus dem Zusammenhang gerissen wird. Da sind echt einige Profis hier.
Ich bezog mich 0 auf die 590. Das die von der Effizienz her Mist ist, ist mir auch klar.
Ich bezog mich auf die von DIR angesprochenen nächsten 5 Jahre. In Hinblick dessen die Speicherthematik so runter zu spielen finde ich mutig. Gerade auch wenn du noch Konsolen ansprichst. Soweit ich weiß, kommen innerhalb der nächsten 5 Jahre, wer weiß, was diese Konsolen für Speicher haben, wenn sie nochmehr als die heutigen Topmodelle von PS4 und Xbox auf 4K ausgelegt sind.
Willst du die Hand dafür ins Feuer legen, dass man für die nächsten 5 Jahre mit 6 GB auskommt?
Und lenke bitte nicht ab, von den nächsten 5 Jahren und von wegen dann tauscht man die Karten ehh. Die 5 Jahre hast du angesprochen !!!.
Ergänzung ()
Hast du überhaupt gelesen, was ich geschrieben habe? Nochmal fett und unterstrichen.
NVIDIA PASCAL erhält DXR-Support per Treiber
Zuletzt bearbeitet: