SPECIALIZED- schrieb:Hab sogar Extra für die 3090 nen G-Sync OLED angeschafft
Das ist dann aber kein Monitor mit einem G-Sync Modul, sondern ein G-Sync Compatible Gerät (oder?) und der lässt sich genauso gut auch an einer AMD Karte betreiben.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
SPECIALIZED- schrieb:Hab sogar Extra für die 3090 nen G-Sync OLED angeschafft
oeMMes schrieb:Sie würden sich dann selbst vernichten und das würde auf die CPU Branch dann auch wieder negativ abfärben.
stevefrogs schrieb:Die Tatsache, dass keine RT-Benchmarks gezeigt wurden, verheißt nichts Gutes. Rasterizing Leistung dürfte aber echt super sein, wie ich es auch erwartet hatte. Auf DLSS-Konkurrenz ist man leider auch nicht wirklich eingegangen, auch das trübt die Stimmung.
Lustiger Moment: “und all das mit nur 300W” LOL, bis Ampere hätte man dafür noch Schelte bekommen, aber jetzt ist das die neue Realität im High-End. Ich kann damit gut leben, aber manche Foristen hier scheinen ein Problem damit zu haben.
Weiterer Lacher, als man WoW mit Raytracing gezeigt hat, verdammt sieht das Spiel scheiße aus, mit oder ohne RT.
Preise finde ich etwas hoch, unter der Annahme, dass RT und DLSS nicht auf dem gleichen Niveau sein/bzw fehlen werden, aber das ist halt noch nicht ganz gewiss. Sollte man da überraschenderweise doch auf gleichem Niveau spielen, sind die Preise dann doch voll in Ordnung. Bzw für Leute, die nur auf Rasterizing stehen sind die Preise auch fair für das Gebotene.
Bin schon sehr auf den Infinity-Cache in der Praxis gespannt, die Folien verheißen viel, aber ob sich das so einfach in die Realität überträgt, muss sich erst beweisen. Auch bei Vega gab es dicke Balken auf manchen Folien, draus geworden ist dann leider doch nichts (primitive shaders).
Er hat sich schon dazu geäußert: Die Leaks kamen wohl von einer Karte im Rage Mode/OC. Und darauf passt dann seine Rechnung.GerryB schrieb:Sein Taschenrechner war bzgl. der 6800 vollkommen daneben.
(Absicht?)
SPECIALIZED- schrieb:...Das ist momentan das einzige was Schade ist, das es vor 4 Wochen noch kein ZEN 3 gab, sonst wäre da jetzt kein 10900K drin
gut und richtig schrieb:@SPECIALIZED-
48 Zoll ist einfach inzwischen echt klein wenn du mal 65 Zoll aufwärts gewohnt bist.
Mit 12GB wird die wohl kaum kommen. Dann müsste man das Speicherinterface weiter beschneiden, ein 384er wird die nicht bekommen. Denke die kommt daher mit 8GB und ist somit ein direkter Konkurrent zur 3070 - fertig.superrocko schrieb:Die echte Konkurrenz zur RTX 3070 wird doch dann erst die 6700 werden oder nicht? Die soll ja im Januar oder so kommen. Vermutlich mit 12 GB, immer noch 4 GB mehr als die 3070.
Nvidia's Lineup sind allesamt Speicherkrüppel (3090 ausgenommen), und überzeugen mich nach AMDs Vorstellung überhaupt nicht mehr.
elmex201 schrieb:Die 6800 ist mir preislich etwas zu teuer und zu dicht an der 6800 XT. Ja sie hat mehr Speicher als die 3070 aber Leistungsmäßig auf demselben Level. Da wären 500 USD/Euro das rundere Angebot.
Apocalypse schrieb:Igor hatte da schon ein paar Ergebnisse von Board Partnern sehen können und es sieht wohl aus das man beim Raytracing dafür dann hinten liegt, aber nicht dramatisch, aber doch ganz ordentlich. Statt 20% vorne ist man dann "plötzlich" 20% hinten. Und zwischen drin liegt man dann auch mal gleich auf mit der 3080.
https://www.igorslab.de/3dmark-in-u...x-6800xt-ohne-und-mit-raytracing-aufgetaucht/
Das sieht schon ganz solide aus, besonders für die 6800, weil da der Speicherunterschied nun wirklich enorm ist.
Ich, und ich bin sehr zufrieden.gut und richtig schrieb:Wer hat schon einen G-Sync Montor bei den absurden Preisen?
Na ja, Tatsache ist, daß G-Sync mit einem entsprechenden Modul immer noch ein Ticken besser und flüssiger aussieht als Freesync oder Nvidia + FreeSync. Ob das nun einem auf den letzten Ticker so wichtig ist, muß jeder für sich selbst entscheiden. Und FreeSync steht ja trotzdem einem solchen Monitornutzer offen.gut und richtig schrieb:Das dürfte selbst bei Nvidia Kunden eine Nische sein, vor allem seit Free-Sync auch geht.
Wir reden ja letztlich über das große Ganze, da kann ich mir beim besten Willen nicht vorstellen das gescheiterte und teure Features da das Rennen machen
Aber es stimmt schon, 2 Leute haben bereits gepostet sie können wegen ihrem teuren G-Sync Monitor nicht wechseln, bzw. wollen nicht in den sauren Apfel beissen.
DrFreaK666 schrieb:Da du immer das Beste willst, kannst du immer noch zu AMD wechseln
Schuhkarton schrieb:Schön, dass AMD Leistungsstarke Karten auf den Markt bringt,
aber für mich persönlich bin ich von den Preisen enttäuscht. Abgesehen von 6900xT/3090 sind die Karten ja nahezu genauso teuer wie die Nvidia-Karten.
Richtig, warum sollte er hier posten? Aber vielleicht muß er heute auch nur schlichtweg so spät noch arbeiten.gut und richtig schrieb:Leute, ich habe @HisN in diesem Thread noch gar nicht gesehen nach 67 Seiten.
Schon sehr merkwürdig, ist er doch sonst Dauer-Poster. Komischerweise immer bei Nvidia.
Ach, ich seh gerade er hat sich nach der zehnten Titan dann doch mal die 3090 gegönnt.
Nein sie wird ein 192bit Interface bekommen und ebenfalls Infinity Cache, vmtl dann nur 64 statt 128MBThirdLife schrieb:Mit 12GB wird die wohl kaum kommen. Dann müsste man das Speicherinterface weiter beschneiden, ein 384er wird die nicht bekommen.
Tyga schrieb:Fassen wir zusammen: AMD mit viel Speicher, den kein Spiel braucht. Nvidia mit vielen Features, die kein Spiel nutzt.
Na toll.
Sun_set_1 schrieb:?
Die 5700XT hat im arithmetischen Mittel bei 1788MHz @ 180W. Nicht 1900Mhz bei 150W.
Damit verschieben sich die Faktorwerte schon ganz schön.
Anhang anzeigen 984985
Anhang anzeigen 984986
Meinst ? Dann wäre sie aber recht herb beschnitten. Fürchte dann reicht die Leistung nicht mehr ganz zur 3070.Taxxor schrieb:Nein sie wird ein 192bit Interface bekommen und ebenfalls Infinity Cache, vmtl dann nur 64 statt 128MB