DrFreaK666
Captain
- Registriert
- Dez. 2011
- Beiträge
- 3.576
Aslo schrieb:Gib das selber mal auf Google ein...da kommen nur links zu News mit dem selben Inhalt wie hier.
Bitteschön
https://de.m.wikipedia.org/wiki/Textureinheit
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Aslo schrieb:Gib das selber mal auf Google ein...da kommen nur links zu News mit dem selben Inhalt wie hier.
PS828 schrieb:Aus enthusiasten Sicht würde mir in Zukunft eine Extrem starke "klassische" GPU mit dezidierter Raytraycingkarte im zweiten x16 slot gefallen. Also wie Dual GPU in der Vergangenheit, aber hier ist eine Karte nur für die Texturierung und die Effekte zuständig und die andere kümmert sich komplett um die Physik und die Beleuchtung. Mit spezialisierter Hard und Software extrem schnell und dank PCI 4.0 und mehr mittlerweile wohl gar schnell genug was durchsatz und Latenz angeht (wobei ich hier nicht sicher bin, aber faszinierend wäre es ) dann kann man endlich wieder multi GPU Setups bauen, alte spiele funktionieren trotzdem dank der "klassischen" gpu und zusätzlich kann man moderne Entwicklungen gut implementieren. Damit ist wohl auch 8k in Reichweite und bedarf keine riesenchips.
Aber naja, sind ja nur so ein paar Gedanken dazu, die hersteller werden da schon ihren Plan haben.
snickii schrieb:Hehe, ich mein ja nur.. was bringt der ganze Kram wenn nicht alles gleichzeitig in annehmbarer Performance läuft? ;-)
Towatai schrieb:Ach und die speziellen Recheneinheiten gibts bei NV gratis dazu? Die fressen genauso Strom, Fläche und benötigen dementsprechende Kühlung.
Toprallog schrieb:Natürlich fressen die eine Menge Strom und werden dadurch sehr warm.
Hast du den Strombedarf der anderen Hardwarekomponenten mit dazu gewertet ?R00tMaster schrieb:Ich muß euch beide enttäuschen, aktiviertes RT kostet kaum mehr Strom.
Gerade getestet mit Metro Exodus und einer RTX 2080 (ist Undervoltet bei 0,975V@1900MHz):
Mit 60FPS-Limit@1080p:
DX12 RT=Off = max. 172 Watt
DX12 RT=On (Ultra) = max. 177 Watt
Ohne FPS-Limit@1080p:
DX12 RT=Off Max. 118 FPS = max. 215 Watt
DX12 RT=On (Ultra) Max. 105 FPS = max. 220 Watt
Es wurde ein Speicherstand für den Test benutzt, so das immer die gleichen bedingungen vorlagen.
Ergo, RT benötigt so um die 5 Watt, und das ist lächerlich. Gab auch mal einen Test irgendwo, wo das Fazit auch war: "RT erhöht den Strombedarf nicht bzw. nur sehr gering.", weiß leider nur nicht mehr wo das war.
DrFreaK666 schrieb:
Einen WIRKLICHEN Vergleich hätte man, wenn der ansonsten gleiche Chip ohne physisch vorhandene RT-Einheiten getestet wird. Was von denen nämlich wie bei Nichtbenutzung abgeschaltet wird um Strom zu sparen weiß wohl nur Nvidia...R00tMaster schrieb:Ich muß euch beide enttäuschen, aktiviertes RT kostet kaum mehr Strom.
Mar1u5 schrieb:Die Konsolen werden dann bestimmt mit 8k, 144Hz, HDR, Raytracing beworben
n3cron schrieb:Ganz ehrlich, finde ich sehr gut. In der Vergangenheit hat ATI/AMD massiv Marktanteile an Nvidia verloren als die dieses "Physix" überall verbreitet haben und die Studios genötigt hatten das Extra per Zwang laufen zu lassen, so das Spieler mit ATI/AMD Karten immer im Nachteil waren und aktuell noch sind - wegen dem Patent.
PS828 schrieb:Aus enthusiasten Sicht würde mir in Zukunft eine Extrem starke "klassische" GPU mit dezidierter Raytraycingkarte im zweiten x16 slot gefallen. Also wie Dual GPU in der Vergangenheit, aber hier ist eine Karte nur für die Texturierung und die Effekte zuständig und die andere kümmert sich komplett um die Physik und die Beleuchtung. Mit spezialisierter Hard und Software extrem schnell und dank PCI 4.0 und mehr mittlerweile wohl gar schnell genug was durchsatz und Latenz angeht (wobei ich hier nicht sicher bin, aber faszinierend wäre es ) dann kann man endlich wieder multi GPU Setups bauen, alte spiele funktionieren trotzdem dank der "klassischen" gpu und zusätzlich kann man moderne Entwicklungen gut implementieren. Damit ist wohl auch 8k in Reichweite und bedarf keine riesenchips.
Aber naja, sind ja nur so ein paar Gedanken dazu, die hersteller werden da schon ihren Plan haben.
HaZweiOh schrieb:Von Raytracing haben wir nur etwas, wenn es auch im Massenmarkt verbreitet ist und von Spiele-Herstellern genutzt wird. Deshalb muss eine gute Lösung geradezu günstiger sein als das, was nVidia quasi nur mit Tech-Demos (ohne die Konsolen, ohne den PC-Massenmarkt) zeigen kann.
In den Konsolen wird auf jeden Fall AMDs Technik eingesetzt, die sich jetzt ohne Zusatz-Aufwand auch auf dem PC verbreitet.
j-d-s schrieb:Das könnte doch perspektivisch das Ende von RTX-Raytracing sein. Durch den Einsatz von AMD-Raytracing in Konsolen wird AMDs Variante wohl auch auf dem PC eher verbreitet werden als Nvidia-RT.
R00tMaster schrieb:Ich muß euch beide enttäuschen, aktiviertes RT kostet kaum mehr Strom.
Gerade getestet mit Metro Exodus und einer RTX 2080 (ist Undervoltet bei 0,975V@1900MHz):
Mit 60FPS-Limit@1080p:
DX12 RT=Off = max. 172 Watt
DX12 RT=On (Ultra) = max. 177 Watt
Ohne FPS-Limit@1080p:
DX12 RT=Off Max. 118 FPS = max. 215 Watt
DX12 RT=On (Ultra) Max. 105 FPS = max. 220 Watt
Es wurde ein Speicherstand für den Test benutzt, so das immer die gleichen bedingungen vorlagen.
Ergo, RT benötigt so um die 5 Watt, und das ist lächerlich. Gab auch mal einen Test irgendwo, wo das Fazit auch war: "RT erhöht den Strombedarf nicht bzw. nur sehr gering.", weiß leider nur nicht mehr wo das war.
j-d-s schrieb:Wie dem auch sei, wenn die Spiele auch auf der Konsole erscheinen müssen sie ohne Nvidia-Technik RT können
An der Stelle kann man erst mal nur schreiben: Beschäftige dich mit der Thematik und den feinen Unterschied hier.icetom schrieb:Huch was ist hier plötzlich los? Im cb Forum wurde AMD stets als edler Ritter der für offene Standards kämpft gelobt. Und jetzt lobt man hier das patentierte abspalten in eine weitere Richtung.