zeedy schrieb:Aver AMD ist ja selbst schuld, hätten sie nicht so heiße, laute und stromhungrige Karten und wäre FreeSync nicht so viel schlechter als Gsync, hätten die deutlich mehr Kunden.
Trolololol
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
zeedy schrieb:Aver AMD ist ja selbst schuld, hätten sie nicht so heiße, laute und stromhungrige Karten und wäre FreeSync nicht so viel schlechter als Gsync, hätten die deutlich mehr Kunden.
==>AUDI<== schrieb:@acc
Ich würde lieber etwas mehr für die Karte mit mehr Speicher zahlen, als in einem oder zwei Jahren im VRam-Limit zu hängen....
Skamander schrieb:Nutzt Nvidia einfach nur spezialisierte Kerne um Raytracing zu beschleunigen, oder kombinieren sie Machine Learning + Raytracing so wie in diesem Video zu sehen:
YouTubeAn dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Krautmaster schrieb:So wie ich das verstanden habe läuft das so:
-> die Raytracing Einheiten berechnen ein low res Raytraced Image.
-> Die Tensor Kerne + ein hinterlegtes AI Modell berechnen daraus ein Native Aufgelöstes Bild
-> Das Bild + das klassisch über Rasterisation gerechnete Bild wird ebenso eingebunden und die Summe gibt das eigentliche fertige Bild.
SaschaHa schrieb:Sehe ich genauso, zumal der 12 nm-Prozess lediglich ein optimierter 16 nm-Prozess ist, der lediglich als 12 nm vermarktet wird.
AffenJack schrieb:2008/2009, aber da hatten wir einen extrem starken Euro und eine Weltwirtschaftskrise
Nick.Ae schrieb:Na ja aber wir alle gehen ja davon aus, jedenfalls die Personen die mit einer Ti liebäugeln das man da 4K nutzen will. Und da könnten 11GB vllt. eng werden oder?
Ich würd erstmal Vorbestellen, um den ärgsten Druck von Dir zu nehmen.spezialprodukt schrieb:KINNERS, ICH BIN HART AUF DEN TEST GESPANNT!
300€ Aufpreis von der 1070 zur 1080 Ti ist etwas mehr? Das ist eine ganz andere Preisklasse, da bekomm ich noch ne CPU dazu.Zeekuma schrieb:Ehm dann mach, kauf dir die Ti, die hat fast 50% mehr Ram das reicht locker 2Jahre.
Hier kannst du etwas mehr ausgeben und hast mehr Ram, also verstehe ich dein Problem nicht.
Genau, schont den armen, armen Marktfüher damit dessen Rekordgewinne nicht unter den überzogenen Anforderungen der gierigen Kundschaft leiden. Das überlässt man besser der Konkurrenz.acc schrieb:was wäre denn dein vorschlag? eine verdoppelung von 8 auf 16 dürfte selbst für nvidia zusätzliche kosten von über 100 dollar bedeuten und dann kommen leute wie du um die ecke und beschweren sich über die gestiegenen preise.
Das verwechselst du wohl, oder es betrifft beide.Hayda Ministral schrieb:Das war bei GlobalFoundries. NVIDIA fertigt bei TSMC.
Nvidia hat ein eigenes Event am Montag im Rahmen der Gamescom.HerrvonBla schrieb:Die Gamecom startet aber erst am Dienstag für Fachbesucher.
Nein, ist nicht ungewöhnlich. Man muss nur deine zugedichtete 8+3 weglassen. Die 2080TI wird wie der Vorgänger ein 354 Bit Speicherinterface haben, also 11x32 bit.Hayda Ministral schrieb:Eingangs mal eine schüchterne Frage. Wieso 11 GB RAM? Sind 8+3 nicht eine sehr ungewöhnliche Kombination?
Es könnte natürlich auch sein das die 2080 Ti den fast vollen Chip bekommt und damit die Position der 1080 einnimmt, die 2080 die erste Beschneidungsstufe ist und die 2070 eine noch stärker beschnittene Version wird. Dann könnte ein Ti Modell natürlich auch entsprechend günstig werden.edenjung schrieb:Ich call it hs.
Die 2080 ist nen rebrand (auch wenn sie rtx heißt) oder mega beschnitten und die 2080ti ist ne minimale Verbesserung.