-
Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test F1 2017: 4 GB Grafikspeicher erlauben Raserei mit hohen Details
- Ersteller Wolfgang
- Erstellt am
- Zum Test: F1 2017: 4 GB Grafikspeicher erlauben Raserei mit hohen Details
Siegfriedphirit
Lt. Junior Grade
- Registriert
- Apr. 2009
- Beiträge
- 508
Früher wurden mal die Mindestanforderungen aufgeführt, die man benötigt, um das Spiel zocken zu können.
Noch vor zwei Monaten war eine Nvidia 960 oder 1050 Ti bzw. von AMD eine 380 bzw. eine 380X noch Mittelklasse Grafikkarten-jetzt werden die gar nicht mehr aufgeführt. Von älteren Beschleunigern will ich erst gar nicht reden. Zumal das Spiel kein DX 12 unterstützt-also könnte man ruhig die 760,770,780/Ti bzw. die 7870, die 280/X 290 mit aufführen.Es soll noch User geben , die mit solchen Teilen zocken.
Und selbst wenn man nur eine Karte aufführt , um den Testaufwand gering zu halten, würde es doch denen nutzen, die wissen möchten ob ihre Hardware noch ausreichend ist.
Noch vor zwei Monaten war eine Nvidia 960 oder 1050 Ti bzw. von AMD eine 380 bzw. eine 380X noch Mittelklasse Grafikkarten-jetzt werden die gar nicht mehr aufgeführt. Von älteren Beschleunigern will ich erst gar nicht reden. Zumal das Spiel kein DX 12 unterstützt-also könnte man ruhig die 760,770,780/Ti bzw. die 7870, die 280/X 290 mit aufführen.Es soll noch User geben , die mit solchen Teilen zocken.
Und selbst wenn man nur eine Karte aufführt , um den Testaufwand gering zu halten, würde es doch denen nutzen, die wissen möchten ob ihre Hardware noch ausreichend ist.
A.K.
Admiral
- Registriert
- März 2010
- Beiträge
- 7.206
Falls es noch nicht mitbekommen hast: Hardware hat eine verdammt kurze Halbwertszeit und da ist die unterstützte Version der Schnittstelle nicht das Problem. Ich hatte eine 780 und die mageren 3gb Speicher waren schon 2015 der Genickbruch für die Gpu. Davon ab brauchen Redaktionen bei Spieletests nicht steinalte Karten benchen. Wenn wissen willst wie was von vergestern zu aktuellem im Verhältnis steht da gibts sicher immer aktuelle Listen bei PCGH o.ä. Seiten.
MINIMUM:
Betriebssystem: 64bit Versions of Windows 7, Windows 8, Windows 10
Prozessor: Intel Core i3 530 or AMD FX 4100
Arbeitsspeicher: 8 GB RAM
Grafik: Nvidia GTX 460 or AMD HD 5870
DirectX: Version 11
Netzwerk: Breitband-Internetverbindung
Speicherplatz: 40 GB verfügbarer Speicherplatz
Soundkarte: DirectX Compatible Soundcard
Zusätzliche Anmerkungen: Supported Graphics Cards: AMD HD5870 or better, HD6870 or better, HD7790 or better, R7 260 or better, R9 260 or better Nvidia GTX460 or better Series, GTX560 or better, GTX650Ti or better, GTX750 or better, GTX950 or better
Die Anforderungen findet man wie immer und zu jedem PC Game da wo es angeboten wird. Ansonsten kann man auch Seiten wie https://www.systemrequirementslab.com/ nutzen wenn man überhaupt keinen Plan hat welche Hardware man da besitzt... Soll ja auch öfter vor kommen ^^
MINIMUM:
Betriebssystem: 64bit Versions of Windows 7, Windows 8, Windows 10
Prozessor: Intel Core i3 530 or AMD FX 4100
Arbeitsspeicher: 8 GB RAM
Grafik: Nvidia GTX 460 or AMD HD 5870
DirectX: Version 11
Netzwerk: Breitband-Internetverbindung
Speicherplatz: 40 GB verfügbarer Speicherplatz
Soundkarte: DirectX Compatible Soundcard
Zusätzliche Anmerkungen: Supported Graphics Cards: AMD HD5870 or better, HD6870 or better, HD7790 or better, R7 260 or better, R9 260 or better Nvidia GTX460 or better Series, GTX560 or better, GTX650Ti or better, GTX750 or better, GTX950 or better
Die Anforderungen findet man wie immer und zu jedem PC Game da wo es angeboten wird. Ansonsten kann man auch Seiten wie https://www.systemrequirementslab.com/ nutzen wenn man überhaupt keinen Plan hat welche Hardware man da besitzt... Soll ja auch öfter vor kommen ^^
Zuletzt bearbeitet:
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.846
gidf.de hilft auch bei SysAnforderungen.
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.932
@ xexex & dark matter
natürlich kann nvidia auf die eigene api optimieren - aber die eigene api so zu nutzen, dass sie amd extra leistung kostet, ist ne schweinerei.
es macht keinen sinn tessellation so zu nutzen, wie es nvidia tut - das frisst nur unnötig leistung, nur nvidia weniger als amd, weil die ihre hardware extra auf die abgedreht hohen tessellationlevel ausrichten. tesselation ist mit 4x schon ausreichend, nvidia dreht aber auf 16x bzw. 32x hoch.
keiner braucht einen holzscheit mit 500.000 polys - das ding ist auch mit 400 "perfekt".
natürlich kann nvidia auf die eigene api optimieren - aber die eigene api so zu nutzen, dass sie amd extra leistung kostet, ist ne schweinerei.
es macht keinen sinn tessellation so zu nutzen, wie es nvidia tut - das frisst nur unnötig leistung, nur nvidia weniger als amd, weil die ihre hardware extra auf die abgedreht hohen tessellationlevel ausrichten. tesselation ist mit 4x schon ausreichend, nvidia dreht aber auf 16x bzw. 32x hoch.
keiner braucht einen holzscheit mit 500.000 polys - das ding ist auch mit 400 "perfekt".
duskstalker schrieb:natürlich kann nvidia auf die eigene api optimieren - aber die eigene api so zu nutzen, dass sie amd extra leistung kostet, ist ne schweinerei.
Es kostet AMD keine Leistung zusätzlich. AMD ist nur schwach bei Tesselation und unterstützt kein PhysX, was NVidia aber nicht erst seit heute, durch einen millionenschweren Zukauf, sich seinerzeit unter den Nagel gerissen hat und bis heute nutzt.
Es steht AMD frei sich um ihre APIs zu kümmern, was sie seit Jahren vernachlässigen. Es stand AMD auch seinerzeit offen, sich Havok zu kaufen, was sich letztlich Intel unter den Nagel gerissen hat. Im verlinkten Beispiel mit dem Tomb Raider, sieht man ja, dass Entwickler durchaus bereit sind auch verschiedene APIs zu unterstützen, nur dafür müsste AMD auch etwas tun und überhaupt welche anbieten!
Man kann nicht von den Entwicklern erwarten, dass die Gameworks ablehnen und alles von Hand programmieren. Die APIs bieten enorme Möglichkeiten, um mit einem geringen Aufwand und gut optimiert zu tollen Effekten zu kommen. Wenn AMD nicht mal ansatzweise etwas vergleichbares bietet, sollen sie sich nicht beklagen wenn sie nur hinterherrennen. Gerade in Zeiten wie diesen, wo AMD technisch schon weit abgeschlagen ist, wären einfach nutzbare APIs und guter Support für Entwickler goldwert!
Stattdessen hat man Mantle verworfen, GPUOpen der Menschheit zum Fraß vorgeworfen, Hardware für Schnittstellen entwickelt, die bis heute kaum einer nutzt und hängt auch mit der Hardwareentwicklung Nvidia hinterher. So wird das für AMD/ATI einfach nichts und die "Schuldigen" sollte man an erster Stelle in den eigenen Reihen suchen.
Das einzig gute was von AMDs Grafikabteilung in letzten Jahren gekommen ist, war der neue Treiber mit einer sehr guten UI, welcher früher einer der größten Schwachstellen gewesen ist. Bei diversen anderen Entscheidungen kann man nur mit dem Kopf schütteln und das Ergebnis sieht man an den Verkaufszahlen.
Zuletzt bearbeitet:
paulaner68
Vice Admiral
- Registriert
- Mai 2008
- Beiträge
- 6.300
Da bin ich ja wohl gut drüber u. kann es nicht Ruckelfrei spielen^^ Danke KotmastersMINIMUM:
Betriebssystem: 64bit Versions of Windows 7, Windows 8, Windows 10
Prozessor: Intel Core i3 530 or AMD FX 4100
Arbeitsspeicher: 8 GB RAM
Grafik: Nvidia GTX 460 or AMD HD 5870
DirectX: Version 11
Netzwerk: Breitband-Internetverbindung
Speicherplatz: 40 GB verfügbarer Speicherplatz
Soundkarte: DirectX Compatible Soundcard
Zusätzliche Anmerkungen: Supported Graphics Cards: AMD HD5870 or better, HD6870 or better, HD7790 or better, R7 260 or better, R9 260 or better Nvidia GTX460 or better Series, GTX560 or better, GTX650Ti or better, GTX750 or better, GTX950 or better
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.932
xexex: mantle wurde nicht verworfen, mantle ist vulkan. wer soll vulkan nutzen, wenns direkt von amd kommt? die leute schreien ja jetzt schon bei doom "amd benchmark". so ist wenigstens vulkan "neutral" am markt.
tessellation beschleunigt nvidia nicht, tessellation kostet nvidia weniger leistung als amd - einfach mal die zahlen angucken und verstehen. gameworks kostet nvidia genau so leistung, nur eben nicht in diesem extremen ausmaß.
wollt ihr mich eigentlich trollen, oder ist das wirklich euer ernst?
ein letztes mal noch: tessellation ist die dynamische vervielfachung von polys im 3D mesh eines objekts (neuerdings auch animiert für hairworks oder bspw das wasser in crysis 2). je mehr polys ein objekt hat, desto schwieriger ist die berechnung.
früher hat man dafür LOD und mipmaps (ua. auch für texturglättung in der ferne) benutzt, also low poly/res versionen der modelle + texturen. mit tessellation wird das modell (distanzabhängig) in der polyzahl hochskaliert, man spart sich die LODs und der übergang ist flüssiger.
jetzt ist es aber so, dass tessellation beim aufblasen des polycounts in modellen so dermaßen übertreibt, und dazu an der komplett falschen stelle (nicht hauptcharaktere, sondern holzstücke oder anderer schmarren), dass eine extrem hohe geometrie-last auf die gpu kommt. nvidia bereitet ihre gpus hardwaretechnisch genau auf dieses stupide polygewitter vor - amd verschwendet keine ressourcen daran diese hirnrissigen polycounts aufzufangen, weil es eigentlich keinen sinn macht, und weil sie vermutlich auch probleme haben darauf hin zu optimieren, weil sie keine einsicht in den quellcode haben.
die abartigen polycounts von nvidias tessellation sind einfach nur dumm. man kanns nicht anders ausdrücken. das sind nur verschwendete ressourcen, die nvidia gpus weniger hart treffen als amd. das ist schon der ganze zauber dahinter.
https://www.extremetech.com/extreme...rps-power-from-developers-end-users-and-amd/2
hier ein vergleich von crysis 2 barrikade zu einem qualitativ guten modell (wie es aussehen sollte)
crysis 2 (~hunderttausende bis mio):
anständiger polycount (500):
visueller unterschied: null.
wer als 3D artist sowas wie die barrikade von crysis 2 abliefert, sollte normal sofort gefeuert werden. das ist so als würde man kartoffeln mit einem kernreaktor kochen. tessellation wie in crysis 2 ist ein tritt ins gesicht für jeden spieleentwickler / 3D artist, der was davon versteht.
man muss sich mal vor augen führen, dass die barrikade viel mehr polys als die spielerhände + waffe hat. ich würde mal sehr großzügig schätzen, dass wir da mit 50.000 polys auskommen, die barrikade hat mit sicherheit mindestens das zehnfache. zum vergleich, die hände + waffe sind in half-life 2 vielleicht 1500, hauptcharaktere 3000 bis 6000. für den polycount der einen barrikade könnte man alyx ca 100 bis 200 mal auf dem bildschirm zeigen.
tessellation beschleunigt nvidia nicht, tessellation kostet nvidia weniger leistung als amd - einfach mal die zahlen angucken und verstehen. gameworks kostet nvidia genau so leistung, nur eben nicht in diesem extremen ausmaß.
wollt ihr mich eigentlich trollen, oder ist das wirklich euer ernst?
ein letztes mal noch: tessellation ist die dynamische vervielfachung von polys im 3D mesh eines objekts (neuerdings auch animiert für hairworks oder bspw das wasser in crysis 2). je mehr polys ein objekt hat, desto schwieriger ist die berechnung.
früher hat man dafür LOD und mipmaps (ua. auch für texturglättung in der ferne) benutzt, also low poly/res versionen der modelle + texturen. mit tessellation wird das modell (distanzabhängig) in der polyzahl hochskaliert, man spart sich die LODs und der übergang ist flüssiger.
jetzt ist es aber so, dass tessellation beim aufblasen des polycounts in modellen so dermaßen übertreibt, und dazu an der komplett falschen stelle (nicht hauptcharaktere, sondern holzstücke oder anderer schmarren), dass eine extrem hohe geometrie-last auf die gpu kommt. nvidia bereitet ihre gpus hardwaretechnisch genau auf dieses stupide polygewitter vor - amd verschwendet keine ressourcen daran diese hirnrissigen polycounts aufzufangen, weil es eigentlich keinen sinn macht, und weil sie vermutlich auch probleme haben darauf hin zu optimieren, weil sie keine einsicht in den quellcode haben.
die abartigen polycounts von nvidias tessellation sind einfach nur dumm. man kanns nicht anders ausdrücken. das sind nur verschwendete ressourcen, die nvidia gpus weniger hart treffen als amd. das ist schon der ganze zauber dahinter.
https://www.extremetech.com/extreme...rps-power-from-developers-end-users-and-amd/2
hier ein vergleich von crysis 2 barrikade zu einem qualitativ guten modell (wie es aussehen sollte)
crysis 2 (~hunderttausende bis mio):
anständiger polycount (500):
visueller unterschied: null.
wer als 3D artist sowas wie die barrikade von crysis 2 abliefert, sollte normal sofort gefeuert werden. das ist so als würde man kartoffeln mit einem kernreaktor kochen. tessellation wie in crysis 2 ist ein tritt ins gesicht für jeden spieleentwickler / 3D artist, der was davon versteht.
man muss sich mal vor augen führen, dass die barrikade viel mehr polys als die spielerhände + waffe hat. ich würde mal sehr großzügig schätzen, dass wir da mit 50.000 polys auskommen, die barrikade hat mit sicherheit mindestens das zehnfache. zum vergleich, die hände + waffe sind in half-life 2 vielleicht 1500, hauptcharaktere 3000 bis 6000. für den polycount der einen barrikade könnte man alyx ca 100 bis 200 mal auf dem bildschirm zeigen.
Zuletzt bearbeitet:
Dark Matter
Lieutenant
- Registriert
- Aug. 2017
- Beiträge
- 540
@duskstalker
Wenn es dich doch so sehr stört das AMD weniger Leistung bei GameWorks oder Tessellation hat, dann kauf dir halt eine NVidia-GPU oder deaktiviere es in den Games die es nutzen.
Wenn es dich doch so sehr stört das AMD weniger Leistung bei GameWorks oder Tessellation hat, dann kauf dir halt eine NVidia-GPU oder deaktiviere es in den Games die es nutzen.
Base_Dussel
Banned
- Registriert
- Okt. 2016
- Beiträge
- 1.037
bei den Nvidia-gesponsorten Spielen, wo AMD schlecht abschneidet, sehen die Kepler Karten auch mies aus, dass nimmt Nvidia in kauf. Die rechnen sich dann kaputt und ne gtx 780 liegt auf Niveau einer 960. Maxwell hat man bisher noch nicht künstlich abgewertet, obwohl pascal schon seit einem Jahr draussen ist. mal gucken, wie lange das noch geht.
B
Blueeye_x
Gast
Mit dieser Mod sieht das Spiel noch viel besser aus:
http://www.racedepartment.com/downloads/f1-2017-natural-colors.16895/
Kostet 3-5 fps auf meiner GTX 1060, lohnt sich aber
http://www.racedepartment.com/downloads/f1-2017-natural-colors.16895/
Kostet 3-5 fps auf meiner GTX 1060, lohnt sich aber
DocWindows
Vice Admiral
- Registriert
- Mai 2013
- Beiträge
- 6.812
Chismon schrieb:Habe ich, nur ziehe ich anhand der dort angeführten Kommentare und bzgl. der urplötzlichen Umkehr des Leistungsvorteil durch GameWorks bei F1 2017 gegenüber dem Vorgängers ein anderes Fazit als der Autor
Ja, weil du nur die Kommentare akzeptierst die dir in den Kram passen. Da wundert dein Fazit überhaupt nicht. Die Frage ist halt inwieweit dieses Fazit valide ist wenn man nur eine Seite wahrnimmt. Es gibt dor auch noch andere Kommentare die man lesen kann.
Hinweis: Jede Partei in dieser Diskussion kommentiert und argumentiert immer im eigenen Sinn. Warum die Performance zwischen F1 2016 und F1 2017 schwankt wurde dir schon plausibel begründet. Jedenfalls plausibler als deine andauernden Gameworks Verschwörungstheorien. Und wenn sogar der Autor, der sich mit dem Thema beschäftigt hat bevor er seinen Artikel schreibt, in eine recht eindeutige Richtung tendiert, dann würde ich zumindest mal darüber nachdenken wessen Lied ich sing.
Zuletzt bearbeitet:
jk1895 schrieb:Warum hat das Spiel keine VR-Unterstützung? Was soll der Mist? Warum ist der Hersteller nur so kurzsichtig? Wer kauft heute noch eine Simulation ohne VR-Unterstützung?
Jeder, bis auf die 3 Leute mit Vive.
duskstalker schrieb:xexex: mantle wurde nicht verworfen, mantle ist vulkan. wer soll vulkan nutzen, wenns direkt von amd kommt? die leute schreien ja jetzt schon bei doom "amd benchmark". so ist wenigstens vulkan "neutral" am markt.
Mantle war eine herstellereigene API, hinter der ein wirtschaftlich orientiertes Unternehmen stand. Vulkan ist eine offene und für alle zugängliche API, hinter der ein bunter Haufen Hersteller steht. Der gleiche Haufen, der OpenGL gegen die Wand gefahren hat.
Das Problem dabei ist einfach. Ohne eine Firma die hinter so einer Schnittstelle steht, gibt es kaum oder keinen Fortschritt. AMD hätte die Möglichkeit gehabt mit Sony oder gar Microsoft zu reden, diese Schnittstelle in ihre Konsolen zu implementieren. Microsoft wollte seinerzeit ja noch gar kein DX12 entwickeln, Bewegung kam erst an dieser Stelle, als aus Mantle Vulkan und somit die direkte Konkurrenz zu DirectX wurde.
Was aus der Geschichte wurde, sehen wir ja jetzt. Es gab mehr Spiele mit Mantle, als es bis heute mit Vulkan gibt. Nvidia kann Vulkan, interessiert sich aber nicht dafür, Microsoft sitzt im Boot hat aber kein Interesse sich an der Entwicklung zu beteiligen. Wer soll also die API weiter entwickeln und im Interesse der möglichst weiten Verbreitung agieren?
Nicht alles was man als Open Source auf die Welt loslässt, wird zu einem Selbstläufer. Im Fall Mantle hat AMD sich selbst ein Bein gestellt, dabei hätte man von eigenen geistigen Eigentum profitieren können und die API an die eigenen GPUs optimieren können.
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.932
künftige bethesda spiele werden vulkan nutzen, als nächstes quake champions. und microsoft wird sich mit füßen und händen dagegen wehren auch nur irgendwie mit vulkan in kontakt zu kommen. nie im leben würde M$ eine konkurrenz API auf ihren konsolen zulassen. mit vulkan als alternative hat microsoft kein druckmittel mehr für windows 10.
vulkan läuft prinzipell auch sehr gut auf radeon karten, wieso beschwerst du dich? amd kann keinen proprietären müll wie M$ oder nvidia fahren. laut steam hardware survey sind in 18% der rechner amd karten und 67% nvidia karten. von den 18% der amd karten ist die meist verbreitetste karte als "R7 series" bezeichnet, was für mich eigentlich heißt "mobil". die rx480 ist in unter 1% der rechner verbaut und belegt platz 5 der amd chips (insgesamt platz 28). die gtx 1060 hat mit 6,52% die größte verbreitung, gefolgt von 1070 und 1080 und maxwell karten. sogar die gtx 1080 hat die doppelte verbreitung der rx480 und die 1080 ti liegt nur 0,3% hinter der r480.
d.h. unter den spielern hätte nvidia alleine mit der 1080 ti mehr als 2/3 der marktanteile von amds "brot und butter" gpu. das ist nicht nur bitter, das ist traurig.
und amd soll ne eigene api für radeon karten durchdrücken? witzig.
vulkan läuft prinzipell auch sehr gut auf radeon karten, wieso beschwerst du dich? amd kann keinen proprietären müll wie M$ oder nvidia fahren. laut steam hardware survey sind in 18% der rechner amd karten und 67% nvidia karten. von den 18% der amd karten ist die meist verbreitetste karte als "R7 series" bezeichnet, was für mich eigentlich heißt "mobil". die rx480 ist in unter 1% der rechner verbaut und belegt platz 5 der amd chips (insgesamt platz 28). die gtx 1060 hat mit 6,52% die größte verbreitung, gefolgt von 1070 und 1080 und maxwell karten. sogar die gtx 1080 hat die doppelte verbreitung der rx480 und die 1080 ti liegt nur 0,3% hinter der r480.
d.h. unter den spielern hätte nvidia alleine mit der 1080 ti mehr als 2/3 der marktanteile von amds "brot und butter" gpu. das ist nicht nur bitter, das ist traurig.
und amd soll ne eigene api für radeon karten durchdrücken? witzig.
Zuletzt bearbeitet:
duskstalker schrieb:und amd soll ne eigene api für radeon karten durchdrücken? witzig.
AMD GPUs sitzen in der Xbox und PS4. Mantle als Erweiterung zu hardwarenahen GPU Programmierung mit bestehenden Primär-APIs hätte mit entsprechender Unterstützung seitens des Herstellers Aussicht auf Erfolg gehabt und die Marktanteile waren 2013 noch lange nicht so schlecht wie heute.
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-vierten-quartal-2014
Wie bereits erwähnt unterstützen Softwarehersteller die API bereits und es gab "damals" mehr Spiele für Mantle, als es mit Vulkan bis heute gibt.
Die Spielestudios Bioware, Cloud Imperium Games, Crytek, Criterion, Dice, Ghost, Mohawk, Nixxes, Oxide Games, Popcap, Rebellion, Stardock und Visceral unterstützen Mantle - nicht alle haben jedoch Spiele mit dem API benannt.
Bisher verfügbare oder angekündigte Titel mit Mantle-Unterstützung sind Battlefield 4, Civilization Beyond Earth, Dragon Age Inquisition, Galactic Civilizations 3, das nächste Mass Effect, Mirror's Edge 2, Plants vs. Zombies Garden Warfare, Sniper Elite 3, Star Citizen und Thief.
https://www.golem.de/news/schnittst...n-bereits-mit-dem-mantle-sdk-1405-106203.html
Selbst wenn man nur Sony hätte für sich gewinnen können, gäbe es für AMD dadurch riesige Vorteile. Auf dem PC könnten dann Spiele, die für die Sony Konsole optimiert wurden, mit den gleichen API-Optimierungen auf AMD GPUs laufen.
Stattdessen kam es anders, Mantle wurde eingestampft, seitdem verliert man weiter Marktanteile und gibt anderen die Schuld? AMD hat es immer selbst in de Hand gehabt, mit PhysX/Havok, mit Mantle, mit Gameworks/GPUOpen und immer den gleichen Fehler gemacht.
Zuletzt bearbeitet:
DogsOfWar
Commander
- Registriert
- Juni 2005
- Beiträge
- 2.258
wirklich nen super ableger diesmal! wenn man mal das (in bewegung) schreckliche AA ausser acht lässt dann ist F1 2017 wirklich äussert gelungen. allein der sound ist um längen besser als die letzten versionen zuvor. in punkto photorealismus hat dieser teil auch nen riesen schritt nach vorn gemacht. das einzigste was mir dort halt fehlt ist 4xMSAA!!
der karriere modus ist absolut gelungen. vor allem das training mit diesen missionszielen ist super. dazu dann noch das aufmotzen des wagens, wobei man wirklich überlegen muss was man zuerst entwickeln bzw verbessern lässt, macht wirklich bock.
der letzte "gute" teil war vor 2017 ganz einfach F1 2010! gut, die turbo boliden klingen nichtmal ansatzweise so gut wie die wagen von 2010 aber immerhin hat sich der sound im vergleich mit F1 2016 wirklich drastisch verbessert. hab bis jtz wirklich nich einen €uro bereut was F1 2017 angeht! sehr nice!
der karriere modus ist absolut gelungen. vor allem das training mit diesen missionszielen ist super. dazu dann noch das aufmotzen des wagens, wobei man wirklich überlegen muss was man zuerst entwickeln bzw verbessern lässt, macht wirklich bock.
der letzte "gute" teil war vor 2017 ganz einfach F1 2010! gut, die turbo boliden klingen nichtmal ansatzweise so gut wie die wagen von 2010 aber immerhin hat sich der sound im vergleich mit F1 2016 wirklich drastisch verbessert. hab bis jtz wirklich nich einen €uro bereut was F1 2017 angeht! sehr nice!
Ähnliche Themen
- Antworten
- 205
- Aufrufe
- 59.594
- Antworten
- 16
- Aufrufe
- 3.044