Aktuelle Konsolen rendern so gut wie nie in voller Auflösung aka 1080p. Das schwankt häufig zwischen 720-900p. Eben um eine gewisse Mindest-FPS zu halten. Wobei das auch gerne mal nur 30 sind. Also wenn du da 60 eingestellt hast (Standard) und VSync an ist (auch Standard), hast du eine Range von 60 bis soviel FPS, wie dein Monitor an Hz hat. Also z.B. 60-144. Wobei es wohl auch mal unter 60 droppen kann, da die Engine ja scheinbar die Auflösung nicht unendlich runternimmt. Was auch immer da dann "50%" bedeuten.
-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Rage 2 im Test: Mit Vulkan zu hohen FPS und überraschenden Benchmarks
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Rage 2 im Test: Mit Vulkan zu hohen FPS und überraschenden Benchmarks
Infi88
Banned
- Registriert
- Nov. 2013
- Beiträge
- 575
Ich sehe keine AMD Karte auf Augenhöhe zur 2080ti, welche zwar etwas "Pricy" ist aber natürlich die Speerspitze der aktuellen "Turing" Architektur darstellt.Inxession schrieb:Was die Theorie ja untermauert, das nVidia die Low Level API Verbreitung, absichtlich gebremst hat.
Wie man unschwer erkennen kann, performen die AMD Karten auf Augenhöhe mit Turing und weit besser als der damalige Pascal Konkurrent.
Das wusste nVidia … deren Marktanteil erlaubt es aber die Spieleentwickler etwas zu gängeln.
Und im Gängeln ist nV ja sowieso die Nummer 1.
Kann ich nicht gut heißen ….
Übrigens ist Nvidia auch stark an Vulkan beteiligt, deine Verschwörungstheorien in allen Ehren wenn jemand die Entwicklung gebremst hat dann Microsoft, aber wohl eher unabsichtlich .
Wen interessiert was du kaufst ?LencoX2 schrieb:1. Das mit dem RAM und dem Treibern sind keine Verschwörungstheorien, sondern Fakten.
=> HW: R390 - Vega haben 8 GB, die brandneue RTX2060 derer 6GB
=> Treiber: Weiter oben wurde es gepostet: GTX 980Ti hat keine neuen vernünftigen Treiber
2. Was soll das?
Dass die RTX2060 gut performt, wird nicht bemängelnd. Nur dass die GTXen relativ immer schlecht(er) perfomen
3. Ich schrieb:
ICH kaufe nicht von dem Hersteller.
Du stellst Non-Sens als Fakten dar, sitzt du mit Helm vor Computer ?
Du realisiert noch nicht mal das des mit dem Treiber ein Scherz gewesen ist um Ahnungslose wie dich zu trollen, 430.64 Release Notes
auf Seite 28 zusehen bekommt natürlich auch die GTX 980ti Support.
Lors
Lieutenant
- Registriert
- Okt. 2014
- Beiträge
- 765
combatfun schrieb:Taktest du Spiel bezogen? Is mir zu aufwendig und bringt zu wenig. Wenn Witcher 3, Battlefield 5 und Project Cars 2 jeweils 30 min fehlerfrei gelaufen sind, gilt mein Setup als eingestellt.
Project Cars 2 reagiert am empfindlichsten von allen Spielen, die ich kenne auf OC - und egal welche HW Komponente: CPU, RAM, VRAM, GPU. Wenn das Spiel läuft, läuft alles. Diese Regel hat sich noch immer bei mir bestätigt.
Ich takte natürlich nicht Spielbezogen. Bis jetzt hatte ich bei keinem Spiel abstürze wegen OC. Nur Rage 2 zickt rum.
KlaraElfer schrieb:Dann mal die Frage an dich: Was ist deiner Meinung nach ein "moderner Titel"?
Mir kommt es ganz oft so vor, dass die modernen Titel nur Titel sind die auf AMD gut laufen.
KlaraElfer schrieb:Verschwörungstheorien als Meinungen zu verpacken, tut schon verdammt weh.
Aber das muss die Gesellschaft in allen Themenbereichen aushalten, Politik und dann wohl auch in einem Hardwareforum. Belege nicht nötig.
KlaraElfer schrieb:Anno ist auch ein moderner Titel und da leistet die Radeon VII gerade mal so viel wie eine GTX 1070 in höheren Auflösungen wird es dann besser.
KlaraElfer schrieb:Also man muss da schon genauer hinsehen und sich die Frage stellen, ob man wirklich einen neutralen Standpunkt hat, oder ob man in eine Selektivität abdriftet.
- Registriert
- Mai 2011
- Beiträge
- 21.004
Wie schon oft gesagt, das kannst du nicht an einem einzigen Spiel festmachen, davon ab ist es auch völlig normal, dass mit dem Einzug neuer Features GPUs, die nicht auf diese Features ausgelegt sind, stärker abfallen.LencoX2 schrieb:Dass die RTX2060 gut performt, wird nicht bemängelnd. Nur dass die GTXen relativ immer schlecht(er) perfomen
Pleasedontkill
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 538
KuroSamurai117 schrieb:Da zeigt Computerbase Treiber Test der Generationen der letzten Jahre aber ein anderes Bild.
Zitat:
"Darüber hinaus zeigen die Vergleiche mit älteren Grafikkarten der Maxwell- und der Kepler-Generation, dass die Treiber auch für älteren Produktgenerationen optimiert werden. Der Vorwurf, dass Treiber nur noch auf neue Grafikkarten optimiert werden, der in Foren immer wieder aufkommt, erweist sich somit als falsch."
https://www.computerbase.de/2017-01/geforce-treiber-test/2/
Wenn etwas abfällt dass ist es architekturbedingt.
Da ist der Aufbau zwischen Nvidia und AMD halt etwas unterschiedlich. Nur kann Keiner hellsehen welche Technik sich künftig genutzt wird und sich durchsetzt. Kannst auf das richtige oder falsche Pferd setzen.
Unterschied besteht auch ob man aktuelle Engine nutzen will oder hofft in 3-4 Jahren an Performance zu gewinnen.
Da kommt es halt immer auf den Käufer an was er braucht oder in Zukunft nutzen will.
Ich lach mich tot!
Habe es echt voller Erstaunen ernst genommen und habe auf den Link (von Jan. 2017) geklickt. Wir vergleichen hier tatsächlich 3 aufeinanderfolgende Treiber.
Ich schätze mal in den letzten 7Jahren seit die 7870 (2012, meine EX) erschienen ist, überholte diese schon 2-3 Konkurrenzkarten.
Zum Zeitpunkt als ich sie ersetzte waren es auf jedenfall schon 2 (Stufe GTX770).
Hast du schon mal Vergleichstest gesehen von R9 290 ? ...denke muss man nichts mehr dazu sagen.
Muss aber zugeben die Fury war nicht so besonders, ausserd man redet von der Nano.
Sehr klein, effizienter und ordentliche Leistung. OK eben.
Nein echt sorry, ausserd in der PC-Flaute 2006 hat NV bei mir nie eine gute Erfahrung hinterlassen (9800GT).
Zuletzt bearbeitet:
Keine Geduld!
Captain
- Registriert
- Aug. 2010
- Beiträge
- 3.517
Gerade mal angezockt. Das Game hat definitiv etwas von Wolfenstein. Die "ähnliche" einfache aber schöne
Grafik, der Humor, die Sprüche ... .
Macht jedenfalls ordentlich Laune.
Grafik, der Humor, die Sprüche ... .
Macht jedenfalls ordentlich Laune.
LencoX2
Commander
- Registriert
- Feb. 2006
- Beiträge
- 2.161
0.Infi88 schrieb:Ich sehe keine AMD Karte auf Augenhöhe zur 2080ti, welche zwar etwas "Pricy" ist aber natürlich die Speerspitze der aktuellen "Turing" Architektur darstellt.
Übrigens ist Nvidia auch stark an Vulkan beteiligt, deine Verschwörungstheorien in allen Ehren wenn jemand die Entwicklung gebremst hat dann Microsoft, aber wohl eher unabsichtlich .
Wen interessiert was du kaufst ?
Du stellst Non-Sens als Fakten dar, sitzt du mit Helm vor Computer ?
Du realisiert noch nicht mal das des mit dem Treiber ein Scherz gewesen ist um Ahnungslose wie dich zu trollen, 430.64 Release Notes
auf Seite 28 zusehen bekommt natürlich auch die GTX 980ti Support.
2080Ti: Auf keinen Fall im Preis auf Augenhöhe.
Beim 2080er schon.
Wer >1000EUR für eine Grafik ausgeben möchte, hat keine andere Wahl, bekommt dafür auch das Maximum
1.
Das mit dem Kaufen schreibe ich nur, weil ich damit klar machen wollte, dass das MEINE Wahrnehmung ist.
Kannst du auch machen.
2.
Hier die ahnungslosen Fakten: Die R390 bis Vega haben 8 GB. Was ist daran Non-Sense?
3.
GTX 980Ti : Hättest dir sparen können: Sie hat weniger gut optimierten, daher schlechteren Treibersupport.
Hab nie behauptet, KEINE Treiber.
Pleasedontkill
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 538
Infi88 schrieb:Ich sehe keine AMD Karte auf Augenhöhe zur 2080ti, welche zwar etwas "Pricy" ist aber natürlich die Speerspitze der aktuellen "Turing" Architektur darstellt.
Übrigens ist Nvidia auch stark an Vulkan beteiligt, deine Verschwörungstheorien in allen Ehren wenn jemand die Entwicklung gebremst hat dann Microsoft, aber wohl eher unabsichtlich .
Wen interessiert was du kaufst ?
Du stellst Non-Sens als Fakten dar, sitzt du mit Helm vor Computer ?
Du realisiert noch nicht mal das des mit dem Treiber ein Scherz gewesen ist um Ahnungslose wie dich zu trollen, 430.64 Release Notes
auf Seite 28 zusehen bekommt natürlich auch die GTX 980ti Support.
Da reden zwei aneinander vorbei.
Für viele bedeutet auf Augenhöhe die Speerspitze zu sein.
Für @Inxession ist auf Augenhöhe was ganz anderes. Vielleicht angefangen mit Umgang mit dem Kunden oder den versuch einen echten Mehrwert in der Entwicklung zu bringen (Mantel/Vulkan) aus dem raus sich die Bewegung nach DX12 ergab. Trotz Sabotage war es ein Muss sich dahin zu entwickeln.
Man sieht fast ausnahmslos was zB. Vulkan aus brachliegender Leistung rausholen kann auch in den Frametimes und das nicht nur von der "Speerspitze"!
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.847
Ich habe das Spiel vorhin gespielt. Für mich fühlte es sich trotz 90+ FPS und Gsync (144hz Moni) beim Kumpel iwie nicht so flüssig an.
Direkt dann Division 2 eingeloggt, fühlte sich um einiges besser an (wie bei mir mit meinem Freesnyc 144hz Monitor).
Woran kann das liegen? :-/
Direkt dann Division 2 eingeloggt, fühlte sich um einiges besser an (wie bei mir mit meinem Freesnyc 144hz Monitor).
Woran kann das liegen? :-/
- Registriert
- Juni 2001
- Beiträge
- 25.650
cruse schrieb:ist nachgewiesenermaßen quatsch und du verbreitest hier parolen
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Flare
Commander
- Registriert
- Aug. 2010
- Beiträge
- 2.068
Vulkan ist aus der Notwendigkeit für bessere Mehrkernnutzung entstanden, inspiriert durch Mantle.
Wenn ich hier Tests sehe die eine RX 570 (135,-) gepaart mit einem 9900K (500,-), das ist als GPU-Test gut
aber völlig weltfremd.
Dann aber nicht zu schauen wie weit man mit z.B. i5-9400 und 2600X kommt ist einfach nur schade.
Aber CB meckert ab und an über angeblich ungerechtfertigte Kommentare wie diesen hier in dem ein Geschmäckle Richtung Intel empfunden werden könnte.
Tut was dagegen, nicht alle Leute hier kloppen 500 Tacken für die CPU hin.
Wenn ich hier Tests sehe die eine RX 570 (135,-) gepaart mit einem 9900K (500,-), das ist als GPU-Test gut
aber völlig weltfremd.
Dann aber nicht zu schauen wie weit man mit z.B. i5-9400 und 2600X kommt ist einfach nur schade.
Aber CB meckert ab und an über angeblich ungerechtfertigte Kommentare wie diesen hier in dem ein Geschmäckle Richtung Intel empfunden werden könnte.
Tut was dagegen, nicht alle Leute hier kloppen 500 Tacken für die CPU hin.
LencoX2
Commander
- Registriert
- Feb. 2006
- Beiträge
- 2.161
Keine 500 fuer die CPU.Flare schrieb:Vulkan ist aus der Notwendigkeit für bessere Mehrkernnutzung entstanden, inspiriert durch Mantle.
Wenn ich hier Tests sehe die eine RX 570 (135,-) gepaart mit einem 9900K (500,-), das ist als GPU-Test gut
aber völlig weltfremd.
Dann aber nicht zu schauen wie weit man mit z.B. i5-9400 und 2600X kommt ist einfach nur schade.
Aber CB meckert ab und an über angeblich ungerechtfertigte Kommentare wie diesen hier in dem ein Geschmäckle Richtung Intel empfunden werden könnte.
Tut was dagegen, nicht alle Leute hier kloppen 500 Tacken für die CPU hin.
Und schon keine 1300 Tacken fuer die GPU.
Es werden fast immer
Praxisferne oder HW Kombinationen oder Einstellungen publiziert:
1. Low end GPU auf OC high end cpu.
2. Ultra settings auf low end HW
3. Max AA auf WQHD oder UHD
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.416
Flare schrieb:Dann aber nicht zu schauen wie weit man mit z.B. i5-9400 und 2600X kommt ist einfach nur schade.
Aber CB meckert ab und an über angeblich ungerechtfertigte Kommentare wie diesen hier in dem ein Geschmäckle Richtung Intel empfunden werden könnte.
Tut was dagegen, nicht alle Leute hier kloppen 500 Tacken für die CPU hin.
Finde die Idee richtig gut noch eine Mainstream CPU wie 2600(X) oder i5 9400 o.ä. zu testen. So sieht man wenigstens bis zu welcher GPU es Sinn macht zu kaufen, bevor die Mehrleistung im CPU Limit verpufft.
Es rücken in manchen Titeln wohl die GPUs zusammen, aber es ist einfach praxisnäher für alle...Und der doppelte Aufwand für CB
cruse
Fleet Admiral
- Registriert
- Sep. 2013
- Beiträge
- 13.875
@MaverickM hier :
2014
https://www.computerbase.de/2014-11/grafikkartentreiber-im-test/#abschnitt_benchmarks
https://www.computerbase.de/2014-04/aktuelle-treiber-amd-catalyst-nvidia-geforce-leistungszuwachs/
2015
https://www.pcgameshardware.de/Nvid...s/Kepler-Treiber-Performance-GTX-670-1169404/
2017
https://www.pcgameshardware.de/Nvid...ws/Geplante-Obsoleszenz-Treiber-Test-1236246/
https://www.computerbase.de/2017-01/geforce-treiber-test/2/
Den CB Test/Vergleich von 2017, der auch im letzten Link angesprochen wird, finde ich gerade nicht. Da fehlen scheinbar ein paar Tags.(es fehlte der #Treiber-Tag)
2014
https://www.computerbase.de/2014-11/grafikkartentreiber-im-test/#abschnitt_benchmarks
https://www.computerbase.de/2014-04/aktuelle-treiber-amd-catalyst-nvidia-geforce-leistungszuwachs/
2015
https://www.pcgameshardware.de/Nvid...s/Kepler-Treiber-Performance-GTX-670-1169404/
2017
https://www.pcgameshardware.de/Nvid...ws/Geplante-Obsoleszenz-Treiber-Test-1236246/
https://www.computerbase.de/2017-01/geforce-treiber-test/2/
Zuletzt bearbeitet:
KuroSamurai117
Lt. Commander
- Registriert
- Aug. 2016
- Beiträge
- 1.067
Pleasedontkill schrieb:Ich lach mich tot!
Habe es echt voller Erstaunen ernst genommen und habe auf den Link (von Jan. 2017) geklickt. Wir vergleichen hier tatsächlich 3 aufeinanderfolgende Treiber.
Ich schätze mal in den letzten 7Jahren seit die 7870 (2012, meine EX) erschienen ist, überholte diese schon 2-3 Konkurrenzkarten.
Zum Zeitpunkt als ich sie ersetzte waren es auf jedenfall schon 2 (Stufe GTX770).
Hast du schon mal Vergleichstest gesehen von R9 290 ? ...denke muss man nichts mehr dazu sagen.
Es geht darum dass zu dem Testzeitpunkt auch die älteren Generationen noch an Performance gewonnen haben. Wo hier behauptet wird Nvidia macht die alte Gens eher langsamer.
Ja, es gibt auch einen Test zu AMD Generationen hier auf Computerbase. Fazit war dass AMD nicht mehr verbessert als Nvidia. Unterschied liegt nur darin dass Nvidia ihre Architektur von Anfang zu ca. 90% auslastet und daher die Steigerungen prozentual bis 99-100% kleiner erscheinen als wenn AMD z.B. bei 80% startet.
Den Unterschied sollte man halt mit einberechnen. AMD ja Rohleistung satt aber scheitert etwas die auf die Straße zu bringen.
Deswegen kannst aber Team Grün nicht vorwerfen dass man halt nicht mehr so hoch steigern kann wenn die Architektur von Vornherein etwas besser genutzt wird.
Gleiche passiert mit den API. Erst wenn ein Entwickler sie jeweils für die Architekturen anpasst kommt halt eine ordentliche Ausnutzung zustande.
@cruse
Danke für die anderen Links zur Verdeutlichung
Manegarm
Rear Admiral
- Registriert
- Juni 2015
- Beiträge
- 5.742
Caramelito schrieb:Ich habe das Spiel vorhin gespielt. Für mich fühlte es sich trotz 90+ FPS und Gsync (144hz Moni) beim Kumpel iwie nicht so flüssig an.
Direkt dann Division 2 eingeloggt, fühlte sich um einiges besser an (wie bei mir mit meinem Freesnyc 144hz Monitor).
Woran kann das liegen? :-/
Hängt mit der Mausglättung zusammen, einige Spiele haben das nicht
KuroSamurai117 schrieb:Es geht darum dass zu dem Testzeitpunkt auch die älteren Generationen noch an Performance gewonnen haben. Wo hier behauptet wird Nvidia macht die alte Gens eher langsamer.
Ja, es gibt auch einen Test zu AMD Generationen hier auf Computerbase. Fazit war dass AMD nicht mehr verbessert als Nvidia. Unterschied liegt nur darin dass Nvidia ihre Architektur von Anfang zu ca. 90% auslastet und daher die Steigerungen prozentual bis 99-100% kleiner erscheinen als wenn AMD z.B. bei 80% startet.
Den Unterschied sollte man halt mit einberechnen. AMD ja Rohleistung satt aber scheitert etwas die auf die Straße zu bringen.
Deswegen kannst aber Team Grün nicht vorwerfen dass man halt nicht mehr so hoch steigern kann wenn die Architektur von Vornherein etwas besser genutzt wird.
Gleiche passiert mit den API. Erst wenn ein Entwickler sie jeweils für die Architekturen anpasst kommt halt eine ordentliche Ausnutzung zustande.
@cruse
Danke für die anderen Links zur Verdeutlichung
Vielleicht sollte man die Leistung einzelner Karten und/oder Architekturen auch einfach mal bewerten ohne in das andere Lager zu schauen.
Angesichts der Ergebnisse der Nvidia Architekturen untereinander, muss jeder Pascal Nutzer sich verarscht vorkommen. Und da dürfen die Hintergründe auch mal hinterfragt werden.
Finde es schon sehr interessant, dass einige hier, die bekanntermaßen pro Turing argumentieren, keine Kritik an Nvidia zulassen was die Performance von Pascal angeht.
RitterderRunde
Lt. Commander
- Registriert
- Dez. 2006
- Beiträge
- 1.567
Was ist den genau das Problem? 1080 Ti ist langsamer als eine 2080?Casillas schrieb:Vielleicht sollte man die Leistung einzelner Karten und/oder Architekturen auch einfach mal bewerten ohne in das andere Lager zu schauen.
Angesichts der Ergebnisse der Nvidia Architekturen untereinander, muss jeder Pascal Nutzer sich verarscht vorkommen. Und da dürfen die Hintergründe auch mal hinterfragt werden.
Finde es schon sehr interessant, dass einige hier, die bekanntermaßen pro Turing argumentieren, keine Kritik an Nvidia zulassen was die Performance von Pascal angeht.
Wenn das gemeint ist, klar würde ich als Pascal User mich verarscht fühlen, da die 1080 Ti 1k€ gekostet hat vor dem Release der 2080...
Ist halt schon komisch wenn die 2080 mit weniger VRAM und theoretischer weniger Rohleistung, schneller performt als die 1080 ti. (und das zusätzlich mit deutlich besseren Preis + mighty RTX-"Killerfeature")
(11,47 TFlops VS 10,6 TFlops) (links 1080 Ti und rechts 2080)
Ähnliche Themen
- Antworten
- 309
- Aufrufe
- 16.570
- Antworten
- 228
- Aufrufe
- 38.045
- Antworten
- 229
- Aufrufe
- 66.392
N