Mhalekith schrieb:
-Komplettzitat entfernt-
Wie es richtig geht, ist
hier nachzulesen.
1. Freesync ist die "Implementierung" von AMD der VESA Standards Adaptive Sync. nVidia hat GSync veröffentlicht weil innerhalb der VESA es damals nicht voran ging mit der "Spezifikation" und nVidia unzufrieden war mit dem Ergebnis des Gremiums (dort sitzen ja mehr Unternehmen als nVidia und AMD im Board) und es nVidia nicht weit genug ging. Eigentlich war Adaptive Sync schon als Pflichtfeature im DP 1.2 Standard vorgesehen. Erst als nVidia Nägel mit Köpfen machte, ging es mit der Verabschiedung von DP 1.2a vorwärts.
Der VESA Standard hat auch erst mit der Zeit zu den Möglichkeiten von GSync aufgeschlossen und auch heute macht eben die "teuere Zusatzkarte" Sinn. Wenn ich einen Monitor mit xxx Hz, FALD, HDR1000 etc. brauche ich eh ein ASIC oder FPGA im Monitor. Das ist der Grund wieso bei den absoluten Highend Modellen die Hersteller eben gerne das Ultimate Modul nehmen (weil ansonsten müssten sie es selber entwickeln oder woanders zukaufen). Dazu funktioniert LFC bis heute nicht sauber ohne die "teure Zusatzkarte" außer ich nehme massiven Lag etc. in Kauf.
2. "Raytracing" ist eben auch so ein Henne/Ei Problem. Hätte eben nVidia es nicht mit Turing so nach vorne getrieben gäbe es heute weder die Spiele noch hätte man AMD bzw. Microsoft in Zug zwang gebracht. Und jemand muss eben anfangen. Und zur Hardware: Ich kann heute Spiele mit Global Illumination auf einer kommerziellen Karte spielbar laufen lassen. Das ist nun mal eine Sprung in der allgemeinen Bildqualität. Man muss sich hier auch eben klar sein, dass nVidia Transitorbudget geopfert hat und das war eine Risikoentscheidung für nVidia höchster Güte.
3. So einfach ist das mit dem Begriff "CUDA" nicht. AMD hatte zwar bisschen was mit CTM gemacht vor CUDA 1.0 aber das war eher "Experiment". Das Steam SDK kam dann ja als Antwort auf CUDA 1.0. Wiederum Open CL etc. schließen erst heute so auf CUDA auf (Stichwort CUDA Runtime API). Und nVidia sitzt natürlich im Kronos Gremium.
Wir könnten es fortsetzen. Es ist so: AMD hat bisher (und das lag auch an den finanziellen Möglichkeiten des Unternehmens) häufig fertige offene Standards implementiert auch um sein Budget entsprechend zu schonen. nVidia wiederum hat häufig eben weit vor den Standards etc. Sachen implementiert und den Markt getrieben. Ich bin mir sicher, dass AMD mit seinen nun größeren finanziellen Möglichkeiten hier auch sein "Bild" ändern wird. Natürlich hat AMD auch vorher den Markt getrieben -> ohne Metal wären wir heute nicht bei DX12 etc. aber AMD musste eben deutlich stärker abwägen wo man Geld auf Risiko investiert.
Mir geht es nur darum, dass es häufig so dargestellt wird, dass nVidia sich nicht an Standards etc. hält bzw. Industriestandards als Erfindung von AMD verkauft werden. In der Kronos Group, VESA etc. sitzt natürlich nVidia auch mit im Gremium. Nur konnte halt nVidia sich erlauben auch eben mal öfters vorzupreschen als AMD.
zur RBAR, SAM etc. weil es immer wieder falsch durch die Gegend geistert:
1. RBAR ist eine "Standardspezifiaktion" des PCI Gremiums.
2. SAM ist die konkrete Implementierung eines Szenarios von AMD auf Basis von RBAR wo wir keine Ahnung haben was AMD konkret macht (bzgl. der Diskussion der Lauffähigkeit auf Zen+ etc.).
3. SAM ist eine Lösung für den Bottleneck der Latenz beim Zugriff der CPU auf VRAM und hat NICHTS mit der Speichermenge zu tun. Es bringt genau dort was wo diese Latenz eben den Bottleneck darstellt. Mittlerweile gibt es anscheinend Gameengines wo dies ein limitierender Faktor sein kann.