E
exuser0815
Gast
Alles unter 2070 wird eine GTX keine RTX.
Also nix mit guenstigem Raytracing.
Also nix mit guenstigem Raytracing.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
steve127 schrieb:die ray-tracing features der ersten generation werden so schnell veraltet und zu lahm sein wie ihr abzockladengamingfürangeberkiddiesihrkönntmichmal sagen werdet.
Das ist Unsinn. Das Übertakten den Stromverbrauch erhöht, negiert nicht die Tatsache, dass die Produkte unterschiedlich viel Strom verbrauchen und der Strom eben Geld kostet. Und da beim Übertakten der Stromverbrauch überproportional ansteigt wird es umso wichtiger, darauf zu schauen, was die Produkte so verbrauchen. Wenn man das über die Nutzungsdauer und die tägliche Nutzung mal zusammen rechnet, kommt schon was zusammen. Es mag dir vielleicht egal sein, aber du kannst damit nicht auf andere schließen, die schauen, was ein Produkt insgesamt kostet und nicht nur bei der Anschaffung.Benji18 schrieb:nochmal, es interessiert niemanden wirklich wieviel Strom die Karte verbrät, es interessiert auch niemanden was ein 8700k bei 5Ghz verbrät.
Marco01_809 schrieb:Deep-Learning Super Sampling, also eigentlich MSAA, nur dass man jetzt das identifizieren der Kanten Deep Learning anstatt den Entwicklern überlasst? Genial
Atkatla schrieb:Das ist Unsinn. Das Übertakten den Stromverbrauch erhöht, negiert nicht die Tatsache, dass die Produkte unterschiedlich viel Strom verbrauchen und der Strom eben Geld kostet. Und da beim Übertakten der Stromverbrauch überproportional ansteigt wird es umso wichtiger, darauf zu schauen, was die Produkte so verbrauchen. Wenn man das über die Nutzungsdauer und die tägliche Nutzung mal zusammen rechnet, kommt schon was zusammen. Es mag dir vielleicht egal sein, aber du kannst damit nicht auf andere schließen, die schauen, was ein Produkt insgesamt kostet und nicht nur bei der Anschaffung.
Schrank schrieb:in Zukunft wird man wohl eher im statistischen Mittel ein schönes Bild haben und einzelne Bilder werden komisch aussehen.
canada schrieb:Entweder sind >200 Watt zu viel oder nicht und nicht mal so oder so. Manchmal blickt man hier nicht mehr durch ...
NMA schrieb:Eigentlich genial wie man auf Leistungsebene, Softwarebene und API Ebene, die allgemeine technologische Entwicklung zu seinen Gunsten ausbremst und die mögliche "Konkurrenz" damit ins Aus schießt.
NMA schrieb:Denn DX11 ist nicht die stärke eines zukunft orientierten Unternehmen wie z. B. AMD, sondern die "stärke" eines platzhirsches, dieser große Furcht hat, dass sich die Marktlage verändern könnte und man den "gewohnten" Trampelpfad" verlassen müsste.
donativo schrieb:Aha so ist das also... Spiele die Nvidia RTX unterstützen werden auf NON-RTX Hardware entweder unspielbar langsam oder schlicht und einfach hässlich werden. Korrekt? Na danke für den tollen Fortschritt! Ich glaube ich muss echt mal auf eine Konsole wechseln....
donativo schrieb:Aha so ist das also... Spiele die Nvidia RTX unterstützen werden auf NON-RTX Hardware entweder unspielbar langsam oder schlicht und einfach hässlich werden. Korrekt? Na danke für den tollen Fortschritt!
NMA schrieb:Aber es handelt im "Rahmen" der freien Marktwirtschaft und nutzt "nur" die Hochphase des Turbokapitalistischen wachstumssystems...
Ja, das habe ich mir auch schon gedacht. Das wird in Zukunft in einigen Spielen ganz schöne Balancing Probleme mit sich bringen.Sturmwind80 schrieb:Sieht ja ganz nett aus, aber dann können Spieler mit RTX Karte die Spiegelung der Gegner sehen und Spieler ohne RT können dann nichts sehen? Das wird ja spaßig.
Na gott sei Dank sind Gefühle hier irrelevant. Insbesondere wenn sie auf 10 Jahre veralteten Informationen beruhen.Wattwanderer schrieb:Selbst wenn ich das Gefühl habe NVidia programmiert Teile des Spiels in ihren Treiber sehe ich ohne Unterstützung von Microsoft schwarz für eine spezielle NVidia Version eines Spiels. So abgehängt ist ATI noch nicht.
Das wirst du sicherlich erleben. DirectX12 enthält eine Machine Learning API für eine Leichte implementierung von Neuronalen Netzen auf den GPUs und du kannst davon ausgehen, dass nVidia die Tensor Cores auch in der eigene PhysX-Engine nutzen wird.Eher hätte ich mir das wie Physik-Engine gewünscht. Die traditionelle Stärken weiter ausbauen und neues Feature anflanschen und sehen wie das angenommen wird. So profitieren alle Spiele von der größeren Leistung und die Entwickler haben etwas womit sie experimentieren können.
Mag vielleicht unglücklich sein aber nicht ungewöhnlich. Auch das letzte Mal lagen die Preise (UVP) auf dem Niveau. Heißt ja nicht, dass die Händler sich daran halten.Die Preisgestaltung finde ich unglücklich.
Womit der Unterschied beim Stromverbrauch umso wichtiger wird. Bloß weil Produkte übertaktet sind, wird doch nicht plötzlich der Strom billiger. Die Verbrauchsschere geht dann doch sogar noch weiter auseinander.Benji18 schrieb:es gibt zig tausend unterschiedliche Wege wie man "Stromsparen" kann und da würde ich als letztes an eine "Grafikkarte" denke vor allem da sich 99% der Leute so oder so eine Werkseitig Übertaktete Karte kaufen und die laufen nicht im sweetspot.
Zum einen: ich habe nie von Strom sparen geschrieben. Ich habe deiner Aussage widersprochen, dass den Stromverbrauch niemanden interessieren würde. Mit der Begründung, dass die Kosten sich über die Nutzungszeit eben bemerkbar machen.Das Stromspar Argument ist milde gesagt idiotisch thats it, wenn du Argumentierst das die Architektur für die Leistung effizienter ist und daher für dich Interessanter ist ok das verstehe ich aber das hat nichts im entferntesten mit Stromsparen im eigentlichen Sinne zu tun, schalte einmal z.b. den Wäschetrockner ein, was der an strom zieht da kannst deine Grafikkarte zig stunden unter last betreiben ;-)
canada schrieb:Irgendwie komisch wie jetzt auf dem Thema Stromverbrauch rum geritten wird, bei Vega das nogo schlecht hin, jetzt wo nV auch bei dem Verbrauch ist (mit mehr Leistung) ist es völlig normal. Entweder sind >200 Watt zu viel oder nicht und nicht mal so oder so. Manchmal blickt man hier nicht mehr durch ...
IMHO ist das ganze eine riesige Sicherheitslücke, denn das Training findet auf nVidia Servern statt und wird dann an den Treiber geschickt. Ob das in Echtzeit passiert oder nicht, weiß ich nicht. Die TCores scheinen nur noch das Modell auszuführen.Faust2011 schrieb:Bei DLSS wäre für mich dann eher die Frage, wer hier das neuronale Netzwerk trainiert. Liegen Trainingsdaten dann im Nvidiatreiber? Oder passiert das on-the-fly? Oder braucht man gar einen Live Internetverbindung zum Nvidia-Server währende des Spielens? Letzteres wäre für mich ein absolutes No-Go
Der aus dem THW-Artikel gefällt mir : "So bietet der kleine APEXX T3 Midi-Tower alles, was man für eine recht potente Workstation braucht. Zusammen mit dem Threadripper 2990WX werkelt eine der neuen Radeon Pro WX8200 im PC, womit auch die wahre Zielgruppe dieser CPU im Fokus gehalten wird: ernsthafte Content-Produzenten und nicht irgendwelche Gamer auf der Suche nach dem Größten und Längsten."pclovely schrieb: