News GeForce GTX 1660 Super: Turing-Grafikkarte angeblich für Oktober bestätigt

Sennox schrieb:
@Laphonso
AMD hat doch schon bestätigt dass RT kommen wird.
Sie können das jetzt entspannt sehen da der Nutzen sich zur Zeit in Grenzen hält.
Btw. ziehen sie nicht Nivida nach, generell ist RT am kommen und wurde ja auch bereits in DirectX vorgesehen.

Nvidia versucht wieder sein propritäres Süppchen zu kochen, ich hoffe dass die RTX Features mit denen vom offeneren Standard harmonieren und wir nicht zwei versch. Implementierungen haben.
Ich denke mit Gruseln an PhysX zurück....
AMDs indifferente Haltung inklusive der Widersprüche wird hier wunderbar seziert: https://www.digitaltrends.com/computing/what-amd-plans-ray-tracing/

Und es zeigt, dass sie Nvidias Technologiesprung gar nicht ignorieren können. Die Gleichgültigkeit war Show aus Ohnmacht.
Dass AMD in der Performance weit seit über einem halben Jahrzehnt hinterherhinkt, ist das eine. In Featuresets und technologie aber den Anschluss zu verlieren, parellel, ist eine ungute Kombination, auch für das rote Fanboy Lager.
Ergänzung ()

(-_-) schrieb:
Aktuell tun mir nur die Käufer leid, die aufgrund des Features zu Nvidia gegriffen haben.
1 Jahr nach Release der Karten gibt es ganze 5 (FÜNF!) Games mit Raytracing.
Wenn es sich durchsetzt, dann sowieso erst mit den neuen Konsolen. Derzeit ist das doch eher eine Spielerei.
Von Anfang an war klar, dass RT mit der ersten Generation etwas für early adopter wird. Ich habe die 2080Ti, weil sie seit rund 1 Jahr mit weitem Abstand überhaupt erste eine für mich - als fps und "alle gfx Slider auf Ultra" Enthusiast - gute 1440p Performance bringt.

Das Raytracing war ein "Add on" für mich.
In der BF V Kampagne und in Metro Exodus waren die RT Effekte beeindruckend und eine visuelle Bereicherung, und damit auch für die Atmosphäre.
Seit 30 Jahren verfolge ich die RT Entwicklung und dank Nvidia haben wir HW Chips auf GPUs zum ersten mal auf Konsumerkarten.
Dass kann man auch als nvidia hater wertschätzen :)
Ergänzung ()

Ergänzung: Ich hatte die Tomb Raider Games glatt vergessen unter Ray Tracing tauglich, die hatte ich installiert und nur angespielt. Zu viele andere Games :D
 
Zuletzt bearbeitet:
Sennox schrieb:
@Laphonso
Sie können das jetzt entspannt sehen da der Nutzen sich zur Zeit in Grenzen hält.

Die meisten Nutzer kaufen aber GPU´s oder Gaming Rechner nicht nur für jetzt, sondern durchaus mal für 3 bis 5 Jahre.
Sennox schrieb:
Nvidia versucht wieder sein propritäres Süppchen zu kochen, ich hoffe dass die RTX Features mit denen vom offeneren Standard harmonieren und wir nicht zwei versch. Implementierungen haben.

Kannst du das mit proprietäres Süppchen mal näher erläutern?
Grundsätzlich ist DXR nicht proprietär, nur Nvidias Umsetzung RTX, selbige wäre bei AMD dann auch proprietär und das ist auch gut so.

Sennox schrieb:
Ich denke mit Gruseln an PhysX zurück....

Ist aber hinsichtlich proprietär umgekehrt.

Sennox schrieb:
Sobald man aber nicht mehr bereit (oder in der Lage) ist, sich eines der Top Modelle zu leisten, kann man das RT Feature so gut wie vergessen, weil mans einfach nicht nutzen kann, ohne dann unspielbar niedrige FPS zu haben.

Das ist davon abhängig wieviele Frames du erreichen willst und mit welcher Auflösung dein Monitor läuft.
Unspielbar niedrige FPS ist aber selbst in Auflösung höhere als Full HD so nicht richtig.
Vielleicht einfach mal selbst ausprobieren.
 
  • Gefällt mir
Reaktionen: Laphonso
Denke auch wird die Super gegen die neuen AMD platzieren und wartet das ab.
Bin mal gespannt welches Angebot am Ende mehr überzeut!
 
Laphonso schrieb:
Von Anfang an war klar, dass RT mit der ersten Generation etwas für early adopter wird.
Denen, die sich mit der Materie beschäftigen, ja.
Dem gewöhnlichen Käufer, der tolle Folien
ck6wheptcnh11.jpg

sieht auch? Eher nicht. Der hängt nicht oft in Techforen rum.

Und für den tut es mir einfach leid, dass mit Zeug geworben wird, das tlw. noch 2 Jahre in der Zukunft liegt, egal wie gut es in der Praxis läuft.
 
  • Gefällt mir
Reaktionen: Sennox
Ich hätte ja gerne möglichst zeitnah eine RX 5600 mit 8GB. Hab jetz vorrübergehend nen 2200G verbaut wegen der APU und würde nur ungern einen Treiberwirrwar mit Nvidia und AMD haben. Ne 5600 als Ergänzung zu einem Ryzen 3 2200G erscheint mir sinnvoll.
 
  • Gefällt mir
Reaktionen: AMDPower und Sennox
DocWindows schrieb:
Das ist doch gar kein Problem. Dann kommt als nächstes halt die GeForce GTX 1660 SUPER Ti oder GeForce GTX 1660 Ti SUPER. :D

Okay - und ein halbes Jahr später dann die Version mit dem Zusatz "SUPER TiTi".
 
  • Gefällt mir
Reaktionen: Sennox
Okay.

Kann man so hinnehmen. Aber ich warte weiter auf den nächsten Sprung ganz oben. Bevor ich vierstellig für eine GPU bezahle (oder auch zwei.. Wer weiß :D) muss ich absolut sicher sein dass es mit 4k ohne Probleme auf maximalen Einstellungen geht. Selbst wenn ich abseits vom gaming mal was in 8k versuche sollte die Karte sowas hinbekommen.

Immerhin wird mittlerweile von AMD und Nividia jeder noch so kleine leistungsbereich abgedeckt. Das kann man kritisieren, habe ich selbst in der Vergangenheit auch schon, aber unterm Strich muss man es hinnehmen. In dem Sinne. Viel Spaß bei der Auswahl der Karten.

Wobei man sagen muss das abseits vom onlinehandel ohnehin nur nividia in gewissen Läden liegt. Erwarten braucht man da nix hinsichtlich Preisen.

Im übrigen ist es auch immer wieder spannend zu lesen wie einige hier auf Intel hoffen hinsichtlich Preiskampf. Ich muss gestehen, dass ich das erst glaube wenn ich es sehe. Ich denke mal eher friert die Hölle zu als das Intel bereit ist kampfpreise zu fahren :D wünschenswert wäre es es aber dennoch
 
merit schrieb:
Manchmal braucht es halt nicht viel um trotzdem erste Wahl zu sein. Insbesondere in einem Duopol.
Speziell wenn die Konkurrenz nur über den Preis antworten kann.

Gerade deshalb braucht es halt mindestens Intel als dritten Mitspieler damit auch einmal mehr unternommen werden muss :)
Ich baue darauf. Immerhin will ich des Fanboys Horrormaschine bauen. Intel Graka und AMD CPU 🤣🤣🤣
 
  • Gefällt mir
Reaktionen: Sennox
Toll, nun bleibt ja nur noch 2080ti ohne das Wort Super.

Das ist der dämlichste Spruch den nVidia sich ausgedacht hat.
 
  • Gefällt mir
Reaktionen: Floppes
0xffffffff schrieb:
Ich könnte mir vorstellen, dass der Turing-Nachfolger keinen dedizierten Chip für das Raytracing und DLSS gedöhns mehr haben wird, stattdessen eher wieder einen Chip der eben alles kann.
Alles falsch und zwar sowas von!

RT als auch DLSS werden bei Turning nicht über dedizierte Chips ausgeführt, sondern über dedizierte Rechenwerke im Chip und das wird nvidia auch so schnell nicht ändern, weil die normalen CUDA-Cores entsprechende Aufgaben überhaupt nicht so schnell lösen können, wie es notwendig wäre. Ich geh gleich auf ein paar technische Eigenheiten ein - auch um den Weg von AMD und nVidia etwas aufzuzeigen.

Aktuell besteht bei Turning ein nVidia-Chip aus folgenden Funktionseinheiten:
Textur Mapping Unit - TMU. Übernimmt die "Texturierung" der Polygone. Direkt an den gemeinsamen Cache angebunden und damit näher am Arbeitsspeicher.
RayTracing-Core - RT-Core (RTC). Spezielle Funktionseinheit für BVH-Tree-Suchen.* Direkt an den gemeinsamen Cache angebunden und damit näher am Arbeitsspeicher.
CUDACores (FP32) - Skalare FP32-Alu. Eigener kleiner Cache, kein direkten Zugriff auf gemeinsamen Cache.
CUDACores (Int32) - Skalare Int32-Alu. Eigener kleiner Cache, kein direkten Zugriff auf gemeinsamen Cache.
CUDACores (FP64) - Skalare FP32-Alu. (Kommt vorwiegend bei den Tesla-Chips zum Einsatz. Aktuell Volta, davor Pascal als GP100 (nicht der 102er auf den Titan oder GeForce GTX1080Ti!) Eigener kleiner Chache, kein direkten Zugriff auf gemeinsamen Cache.
Tensor-Cores - TC. Matrizen-ALU (Multiplikation + Addition) zur Tensor-Berechnung. Eigener kleiner Cache, keinen direkten Zugriff auf gemeinsamen Cache.
Render-Output-Units - Mappen das Bild dann auf die "Pixel", ich kanns nicht einfach erklären. Direkt an dem gemeinsamen Cache angebunden und damit näher am Arbeitsspeicher.
Gemeinsamer Cache - (L2-Cache)

nVidia oragnisiert dabei die Funktionseinheiten in Gruppen. Die kleinste Gruppe ist ein Streaming-Multi-Processor. Der besteht grob aus 1 RTC 64 CC-FP32, 64 CC-INT32, 8 TCs. 4 SM bilden dann ein TPC (Texutre-Processing-Cluster). hier kommen dann die 4 TMUs hinzu. 8 TPCs bilden dann einen GPC (Graphic-Processing-Cluster) und dieser hängt über die "TMUs" direkt am L2-cache. Am L2-Cache hängen dann auch noch die ROPs in 8er Blöcken. Der "Dreh" und Angelpunkt ist also der L2-Cache, an dem auch dann der RAM häng.

Sieht man sich Schaltbilder an, dann sieht man, dass Einheiten, die direkten Zugriff auf den RAM oder L2-Cache brauchen näher an diesem Platziert werden. So sind TMUs als auch die RT-Cores so platziert, dass sie direkt auf den Cache und damit auf den RAM zugreifen können. TMUs wegen den Texturen, die RT-Cores wegen des BVH-Trees.

AMDs aktuelle RDNA ist ähnlich aufgebaut in den Grundzügen.

Vec32-ALU - Dient zur berechnung von INT32, FP32, FP16, INT16, INT8, INT4 usw. 32 besagt in dem Fall, dass die Vecktor-ALU für 32 FP32-Berechnungen ausgelegt ist!
INT32/FP32 SALU - Dient zu brechnung bestimmter Funktionen (Ich hab gerade nicht im Kopf, welche es waren.)
TMU
ROP

Die Gruppierung bei RDNA: Compute-Unite (CU) bestehend aus 2 * Vec32 und 2 * SALU.
Workgroup-Processor (WGP), gebildet aus 2 * 1 CU + 2 TMU + 1 L0-Cache.
Shader-Array: 5 WGP + L1-Cache
Shader-Engine: 2 SA.
Am Ende kommt noch der L3-Cache.

Auch hier gilt: TMUs sind näher an den Caches und können darüber schneller mit dem nächsten Cache und dem Arbeitsspeicher kommunizieren. Nun zum Thema RT bei AMD. Das aktuelle Patent bei AMD beschreibt, dass man die TMU um spezielle Funktionen für die BVH-Tree-Suche erweitert (also das was nVidia mit ihren RT-Cores macht). Das liegt daran, dass eben die TMUs direkt am Cache angebunden sind und so wesentlich schneller an die benötigten Daten aus dem BVH-Baum kommen.

AMDs Lösung wird leider sowohl hier als auch allgemein in der deutschen Presse als auch in den Foren oft als eine Hybrid-Lösung angesehen, man schreibte hier - glaub ich - von einer hardwareunterstützen Software-Lösung über Shader, während man bei nVidia von einer Hardware-Lösung spricht. Diese Aussagen sind aber - freundlich ausgedrückt - stark verfälscht und wenn man es etwas klarer mag: Eigentlich Bullshit!

Der aktuelle Berechnungsweg für RT bei nVidia sieht ungefähr so aus - ach ich hab mal wieder Quelltext gelesen, yeah: Auf RTX-Karten wird ein Bild bis zu einem Zeitpunkt X berechnet. Alle während dessen "anfallenden" Strahlen werden gesammelt. Sobald der Zeitpunkt X erreicht ist, während alle gesammelten Strahlen durch die RT-Cores abgearbeitet und entsprechend durch den BVH-Tree geschossen. Sobald man da auf ein Objekt trifft, werden die von dort ausgehenden Strahlen der Liste der "gesammelten" Strahlen hinzugefügt und das "Objekt" wird mit dem entsprechenden Strahl markiert. Aus den Objekten sowie Strahlen wird ein neuer Baum aufgebaut der (stark vereinfacht) aus dem "Strahl" als Ast besteht und dem darauf folgendne Objekt als Knoten und dann gehts weiter. Sobald alle Strahlen ihr Ziel gefunden haben, steht entsprechend ein neuer Baum und dieser wird dann nicht mehr durch die RT-Cores gejagt, sondern ab diesem Zeitpunkt arbeiten wieder die Shader und berechnen nun final alle Effekte.

Die "nVidia"-Lösung ist also auch eine Mischung aus den RT-Cores (zur Verfolung der Strahlen im BVH-Tree) und Shadern.

AMDs Lösung sieht aktuell ähnlich aus, unterscheidet sich aber an einigen Punkten.

1. AMD wird vermutluich keine "dedizierten" RT-Cores nutzen, aber die TMUs um entsprechende Funktionen erweitern, die es der TMU ermögliuchen den BVH-Tree effektiv mit dem gegeben Strahl zu durchsuchen.
2. Wie bei nVidia sendet der "Shader" für den Effekt einen Strahl aus, statt das er aber erst in einer Liste gesammelt wird, wird im Shader entschieden "bin ich der Endpunkt, wenn ja, pfeif drauf!" oder "Ne, ich bin Start/Zwischenpunkt, ich sende mal weitere Strahlen aus.". Diese Strahlen gehen dann in die TMU und diese sucht dann im BVH-Baum nach den passenden Zielen.

Was ich geschrieben habe sind dabei - und ich sag es klar - Vermutungen, die auf Beobachtung der Auslastung der Funktionseinheiten der RTX-Karten beruht sowie die Betrachung der Patente. Es kann so sein, muss aber nicht. Ich habe genug Ahnung um solche Annahmen zu treffen, bin aber nicht tief genug drinn, dass ich es bestätigen könnte.
 
  • Gefällt mir
Reaktionen: fraqman, Chismon, KlaraElfer und 3 andere
(-_-) schrieb:
Denen, die sich mit der Materie beschäftigen, ja.
Dem gewöhnlichen Käufer, der tolle Folien
Anhang anzeigen 826510
sieht auch? Eher nicht. Der hängt nicht oft in Techforen rum.

Und für den tut es mir einfach leid, dass mit Zeug geworben wird, das tlw. noch 2 Jahre in der Zukunft liegt, egal wie gut es in der Praxis läuft.
Das Ganze könnte man jetzt zynisch und belustigt über die PR Folien der Radeon 7 machen. Wer sich, wie Du sagtest, mit der Materie beschäftigt, hat den DOA Release (=Totgeburt, Rohrkrepierer etc) kommen sehen, und wir wissen ja, wie das ausgegangen ist. Werbefolien, die den reality check nicht überstehen, haben AMD wie NVIDIA immer wieder.
Ist nur halt kein Argument gegen Raytracing.

Dein Mitleid ist also eher absurd. Mitleid kann man demnach haben mit allen, die Metro Exodus nicht mit Raytracing Effekten spielen konnten.
 
  • Gefällt mir
Reaktionen: KlaraElfer
PS828 schrieb:
Immerhin wird mittlerweile von AMD und Nividia jeder noch so kleine leistungsbereich abgedeckt. Das kann man kritisieren, habe ich selbst in der Vergangenheit auch schon, aber unterm Strich muss man es hinnehmen. In dem Sinne. Viel Spaß bei der Auswahl der Karten.
Jeder noch so kleine Bereich?
Der Preisbereich zwischen 200€ und 400€ liegt quasi brach...


Danke @Teralios
So etwas in der Art hatte ich erwartet.
Also ob AMD Raytracing ignorieren oder aktuell in Panik verfallen würde :rolleyes: .
Im moment ist es eine Early Adopter Implementierung und es gibt für AMD wichtigere Baustellen.
Raytracing wird kommen, früh genug.
Sätze wie "it's crazy to buy a new Graphicscard without RT in 2019" sind aber blanker Bullshit.

Bis zur 2080 ist AMD konkurrenzfähig, darüber stehen nur die 2080 S (minimal) und die 2080ti und das sind Karten für Enthusiasten und nicht die breite Masse.
Warum wollen manche Leute eigentlich immer alles auf einmal haben? ^^
Nur die Preise müssen wieder runter dann ist alles gut, im CPU-Bereich sieht's doch z.B. gerade wieder super aus :)

Ich habe jetzt den Account vergessen der es weiter oben sagte aber:
Dein Beispiel mit RT und 50FPS in Metro wäre für mich nicht spielbar.
Wenn dir das reicht ist das schön (ernsthaft) und gut für dich, ich bin leider FPS emfindlich und hoffe meine V56 bald ablösen zu können ohne Unsummen zu zahlen ^^
Natürlich ist das keine Katastrophe aber ich möchte zudem bezweifeln dass du mit hohen Settings und RT auf einer 2060 S durchgehend mit 50 FPS spielst.
 
Zuletzt bearbeitet:
Sennox schrieb:
Jeder noch so kleine Bereich?
Der Preisbereich zwischen 200€ und 400€ liegt quasi brach...
Naja, die 1660er (ti) kosten doch mehr als 200 Euro oder? Also grade die Partnerkarten sind ja auch gelegentlich teuer.

Ich sag auch nicht dass ich das toll finde nur passiert das eben :D mehr als kritisieren und nicht kaufen kann man nicht leider.
 
Laphonso schrieb:
Dein Mitleid ist also eher absurd. Mitleid kann man demnach haben mit allen, die Metro Exodus nicht mit Raytracing Effekten spielen konnten.
Ist das nicht klasse?
Jeder darf Alles und Jeden bemitleiden, da es kein "richtig" gibt.
 
PS828 schrieb:
Naja, die 1660er (ti) kosten doch mehr als 200 Euro oder? Also grade die Partnerkarten sind ja auch gelegentlich teuer.
Natürlich finde ich in diesem Preisbereich Karten aber vergleichebare Leistung bekomme ich auch darunter :D
Als die Vegas und alten Pascals in den Abverkauf gingen haben die prima den Bereich von 250€ bis 350€ bedient.
Das fehlt gerade irgendwie...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PS828
@Sennox ich hoffe sehr das sich das mit einer 5600 oder 5500 ändern wird. Aus Sicht von AMD war die 5700 (XT) der intelligenteste Release, da imho der preisbewusste Performancekäufer sich genau in diesen Gefilden umher treibt. Also ~400 - 500 Euro.
 
  • Gefällt mir
Reaktionen: Sennox
@Sennox richtig. Leider hast dus selbst gesagt, es waren Karten im Abverkauf :D mit neuen Karten wird es sowas erstmal nicht geben. Aber warten wir mal auf die kleinen Navis. Die müssten ja theoretisch alle in dem Bereich liegen.

Im übrigen kann man die 5700 XT für weit unter 400 neu kaufen wenn man die Referenz nimmt. Wem das nicht stört der hat neben der XT noch die normale 5700er in dem Preisbereich. Und das ist echt ne Ansage da man etwas mehr als 2070 Leistung dafür bekommt
 
Zurück
Oben