• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Offiziell: Battlefield 4 unterstützt DirectX 11.1

Naesh schrieb:
+1

Noch kein Spiel hat meine CPU ( oder meine alte 3570k) mehr als 40% ausgelastet. Da kommt man nun auf die Idee von der CPU noch auf die GPU auszulagern? Glorreiche Idee :D

CPU usage dann 10% und GPU 100% und am Ende ;D

lieber mal andersrum. In 90% der Fälle ist eh immer die GPU der limitierende Faktor.

wenn noch kein spiel deinen pc ausgelastet hat, wieso hast du dir dann die neue pipimann-verlängerung gekauft?

kleiner tipp: zu zeiten von q9550 mit 8gb ram und triple sli 8800gtx war dieses gespann am kotzen, sobald das spiel "black site area 51" am rendern war.
da war es an der tagesordnung, dass 3,7-3,8 'prozessorkerne' ihre leistung genauso für das spiel abdrücken durften (verifiziert mit dem taskmanager), wie auch das triple-sli (verifiziert mit dem auslastungsbalken aus dem nvidia treiber). und da war es egal, ob der pc übertaktet oder mit handbremse lief.

man(n) muß schon ein wenig tüfteln, um mit dem ding noch locker aktuelle spiele zocken zu können. du scheinst da ja lieber neu zu kaufen, bitteschön. aber rede unsere betagte aber noch lange nicht zu schwache hardware bitte nicht madig.
 
Sontin schrieb:
Das Spiel einfach nicht als nVidia-User Kaufen.
Wenn EA wirklich alleine auf >100 Millionen Kepler-Kunden verzichten kann, dann soll es so sein.

Mal abgesehen davon, dass in gut einem Jahren sicher nicht mal ansatzweise so viele Keplerkarten verkauft hat, funktioniert das Spiel auch einwandfrei mit DX11.0.
 
Man Man Man. Ich wünschte mir es wäre andersherum, als ob die Grafikkarten nicht genug zu tun hätten. Sie sollten lieber wieder eine schöne, zerstörbare Umgebung a la Bad Company der CPU anvertrauen. :freaky:
 
MahatmaPech schrieb:
wenn noch kein spiel deinen pc ausgelastet hat, wieso hast du dir dann die neue pipimann-verlängerung gekauft?

kleiner tipp: zu zeiten von q9550 mit 8gb ram und triple sli 8800gtx war dieses gespann am kotzen, sobald das spiel "black site area 51" am rendern war.
da war es an der tagesordnung, dass 3,7-3,8 'prozessorkerne' ihre leistung genauso für das spiel abdrücken durften (verifiziert mit dem taskmanager), wie auch das triple-sli (verifiziert mit dem auslastungsbalken aus dem nvidia treiber). und da war es egal, ob der pc übertaktet oder mit handbremse lief.

man(n) muß schon ein wenig tüfteln, um mit dem ding noch locker aktuelle spiele zocken zu können. du scheinst da ja lieber neu zu kaufen, bitteschön. aber rede unsere betagte aber noch lange nicht zu schwache hardware bitte nicht madig.

Habe neu gekauft da das Board meines Bruders mit nem Q9550 @ 3,4 Ghz kaputt gegangen ist und er nun meinen 3570k hat ;D aus keinem anderen Grund :D

Auf i7 bin ich Gegangen weil der i7 an dem Tag im Angebot war und der Aufpreis im Bereich des lächerlichen war im Gegensatz zum i5. ( Man muss ja auchmal Glück haben)

Außerdem rede ich auch keine Hardware schlecht :P
 
FreedomOfSpeech schrieb:
Das ist vielleicht wichtig für AMD-Prozessoren. Wer einen Intel hat braucht sich keine Sorgen machen.

Das glaubst du selber nicht.

Und ein Q9550 @ 3,91ghz (Verfluchte Vollrambestückung) kann eine HD7970 noch befeuern, auch wenn man übertaktet, eine HD7950 würde dazu gut passen.

In BF3 hatte ich so um 70-99% Auslastung, bei viel Action limitierte mehr die CPU. Aber da sind auch 4 Jahre dazwischen.
 
Zuletzt bearbeitet:
Herdware schrieb:
Leider kann ich die von Andersson genannten Beispiele für relevante DX11.1-Features („Constant Buffer Offsets, Dynamic Buffers als SRVs“) nicht wirklich mit der Tabelle der unterstützten und nicht unterstützen Features unter einen Hut bringen.
Klingt aber eher etwas danach, als würden diese "Constant Buffers" von Kepler grundsätzlich unterstützt.


Konstantenbuffer an sich gehören seit Jahren zu den Basics of the Basics der GPUs. Diese Konstantenbuffer liegen in einem besonderen Speicherbereich der GPU, dem sogenannten Konstantenspeicher. Der Konstantenspeicher wird - wie der Name bereits vermuten lässt- für das Abspeichern sämtlicher Konstanten - wie Kameraposition oder Lichteigenschaften- , welche man dann während des Renderns ausliest, verwendet. Hierfür werden die Konstantenbuffer vor einem Zeichenaufruf an einen Shader gebunden.

Der Konstantenspeicher an sich befindet sich im DRAM, wird allerdings besonders gecacht (bei NVIDIA durch einen Konstantencache). Der Cache an sich ist sehr performant; das Lesen ist so teuer wie das Lesen von einem Register. Auch kann der Konstantenspeicher direkt als Operanden für einen Befehl dienen, wodurch die Steuereinheiten der GPU für die Konstantenzugriffe nicht extra Ladeoperationen herausgeben müssen. Durch das seperate Caching wird zudem erreicht, dass sehr häufig benötigte Konstanten, wegen der kleinen GPU-Caches, nicht ständig aus dem Caches verdrängt werden, da sonst häufig teuere DRAM-Zugriffe anfallen würden.

Der Konstantenspeicher hat allerdings auch diverse Nachteile, unter anderem dass er in der Grösse stark beschränkt ist (Vermutlich da der Cache nicht so viel Speicher verwalten kann oder nicht genügend Platz in den Instruktionswörtern für eine vollständige Speicheradresse ist). So darf ein Konstantenbuffer nicht mehr als 16 kB(?) gross sein, und man darf nur wenige (bis zu 4?) Konstantenbuffer an einem Shader vor einen Zeichenaufruf binden.


Nun auf das Risiko hin, dass ich mich jetzt auf Glatteis begebe und Mist schreibe: Bei Constant Buffer Offsets handelt es sich um eine Funktion, wo man Konstantenbuffer beliebiger Grösse an ein Shaderprogramm binden kann. Zusätzlich muss man beim Binden für jeden Buffer einen Offset O und eine Grösse N angeben. Im Shader kann man nun beginnend ab dem Offset O auf die folgenden N - Bytes zugreifen. N muss allerdings so gewählt werden, dass es die zuvor genannte Beschränkung von 16 kB nicht überschreitet. Dadurch kann man zwar nicht von einem Shader aus während eines Zeichenaufrufs auf mehr Konstantenspeicher zugreifen, jedoch kann man sich allerdings leicht vor einem Zeichenaufruf durch den Offset entscheiden, auf welches "Segment" eines größeren Konstantenbuffers man zugreifen will. Auf diese Weise kann man sich vermutlich oft etwas herumkopieren von Konstantenbuffern sparen.
 
Zuletzt bearbeitet:
Locuza schrieb:
Es ist glaub wirklich möglich einzelne Features per Abfrage zu unterstützen.
Bleibt die Frage ob es auf Kepler gar nicht geht oder doch oder abgespeckt.
DX11.2 und die virtual textures lassen sich auch auf Kepler mit dem Feature Level 11_0 nutzen.

So wie ich das verstehe, sind alle DX-Versionen ab 10 grundsätzlich zueinander kompatibel. Ein DX11.1-Spiel läuft also auch auf einer alten 8800GTX und auf Kepler sowieso, nur fallen die neu hinzugekommenen Features/Effekte weg bzw. müssen von der CPU (Treiber) übernommen werden, was potentiell die Performance beeiträchtigen kann.

Es kommt jetzt also darauf an, wie Kepler sich gegenüber einem DX11.1-Spiel "verkauft".

1. Sagt der Treiber: "Ich kann leider nur DX11." und wiegelt damit grundsätzlich alle DX11.1-Features/Effekte ab, obwohl einige davon durchaus, sogar voll hardwareunterstützt, funktionieren könnten?
Das wäre wohl der schlechteste denkbare Fall. Das Spiel sähe auf einer GTX780 genauso aus, wie auf einer GTX480.

2. Kepler gibt sich als vollwertige DX11.1-GPU aus und der Treiber emuliert die nicht in Hardware unterstützten DX11.1-Features, sollten sie benötigt werden, eigenmächtig per CPU/Treiber.
In dem Fall könnte unter Umständen die Performance leiden, aber das Spiel sieht genauso aus, wie auf einer vollwertigen DX11.1-Karte.

3. Oder teilt der Treiber der Kepler-Karte dem Spiel detailiert mit, welche Features unterstützt werden und welche nicht, und das Spiel macht davon optimal gebrauch? (Soviel ich weiß ist mit DX11 so eine detailierte Angabe zu unterstützten Features wieder eingeführt worden.)
Das Ergebnis wäre wohl weitgehend identisch mit Fall 2. Mit dem Unterschied, dass einzelne Features/Effekte ganz wegfallen würden, statt die CPU zu belasten. Also eventuell etwas schlechtere Bildqualität aber niedrigere CPU-Last.

Ich bezweifele allerdings schon etwas, dass man in irgendeinem der drei Fälle tatsächlich einen deutlichen Unterschied erkennen könnte, ohne mit der Lupe einzelne Pixel zu betrachten, die FPS-Werte und GPU- und CPU-Last auf minimale Differenzen auszuwerten oder optimalerweise mit speziellen Tools "unter die Haube" zu schaun und so genau zu wissen, welche Features vom Spiel wirklich genutzt werden und ob die dann jeweils von der GPU erledigt werden oder von der CPU.
Ich fürchte, keine Review-Website wird die Möglichkeit haben, für abschließende Klarheit zu sorgen. (Wobei man sich dann fragen kann, ob die ganze Sache für die normalen Spieler überhaupt relevant ist, wenn man Laborbedingungen braucht, um es nachzuweisen.)
 
Zuletzt bearbeitet:
schön siehts ja aus, nur ob man da überhaupt einen Unterschied sehen wird, bleibt abzuwarten. Wenn, dann eher minimal und hoffentlich keine "künstlichen" Beschränkungen von wg. sieht auf NV Karten schlechter aus als AMD...Never Settled Aktion und so. Das kommt dann eh mit der Zeit raus und dann geht der Schuss nach hinten los.
 
TheDuffman schrieb:
Mal abgesehen davon, dass in gut einem Jahren sicher nicht mal ansatzweise so viele Keplerkarten verkauft hat, funktioniert das Spiel auch einwandfrei mit DX11.0.

Knapp 10 Millionen diskrete Grafikkarten und mindesten nochmal die Menge für Notebooks. Sind mehr als 20 Millionen pro Quartal. Und nVidia hat sich auch schon dazu geäußert:
There are over 90 million NVIDIA GPUs capable of supporting Tiled Resources.
http://blogs.nvidia.com/blog/2013/0...graphics-with-less-memory-at-microsoft-build/

Bezieht sich alleine nur auf Kepler.
 
Naesh schrieb:
Noch kein Spiel hat meine CPU ( oder meine alte 3570k) mehr als 40% ausgelastet. Da kommt man nun auf die Idee von der CPU noch auf die GPU auszulagern? Glorreiche Idee :D

CPU usage dann 10% und GPU 100% und am Ende ;D

lieber mal andersrum. In 90% der Fälle ist eh immer die GPU der limitierende Faktor.
Was du nicht bedenkst: Wenn die Grafikkarte limitiert, kann man einfach die Grafikeinstellungen ein wenig runter drehen und es läuft wieder schön flüssig. Wenn die CPU ins Unspielbare limitiert kannst du nur OC betreiben oder eine neue kaufen.
 
So eine Diskussion braucht man doch garnicht zu führen? Vorallem ist die sichtweise total 'merkwürdig'. Wenn nvidia meint dass diese Kunden kein DX11.1 benötigen, dann können sich die Kunden bei Bedarf an einen anderen Hersteller wenden? Wieso muss sich die Welt nach nvidia drehen, wenn Alternativen da sind und man die Wahl hat, zumal das Spiel auch ohne DX11.1 läuft?
Schlimm genug, DASS sich viele nach nvidia richten, obwohl es gute und offene Alternativen zu dessen proprietären 'Alleinstellungsmerkmalen' gibt.
Total perplex zu sagen, dass man als nvidia-kunde ea dafür boykotierne müsste, dass sie aktuelle zur Verfügung stehende Technologien nutzen. Wenn DX11.1 so wichtig für dich ist, haste die falsche Karte gekauft. War ja vorher nicht unbekannt.
 
Alles schön und gut, mich würde es aber viel mehr interessieren, ob das Spiel jetzt endlich Spielbar ist. Der Netcode von bF3 ist einfach nur schlecht und macht das Spiel wirklich unspielbar. Aber darüber verlieren die natürlich kein Wort bei den BF4 Verbesserungen ...
 
Die eins hinter der elf ändert nicht viel an der eh schon guten Grafik, das einzige was sichtlich besser geworden ist in BF4 sind Charaktere und deren Animationen. Ich würde mich ja freuen wenn die BF Grafik auf OpenGL basieren würde das ist nämlich genau so hübsch (evtl. 5-10% dunkler). Wie ReVan schon sagte, am wahren Problem dem Netzcode wird kein Wort gelassen.
 
JimPanse1984 schrieb:
Profitieren werden davon eh nur Windows 8 nutzer, da 11.1 für Win7 / Vista nicht kommen wird.
Und was ist hiermit?^^
Das Spiel ist für mich erst in paar Jahren interessant vielleiccht, da ich mit BF3 noch Freude dran habe. Schließlich ist der letzte DLC im März noch diesen Jahres rausgekommen^^
 
Klingt so als ob es allgemein die Frostebite3 engine betrifft. Das bedeutet doch dass nicht nur Battlefield4 die Vorteile hat, sondern dass sämtlichen neuen EA Games ebenso davon profitieten können, da alle neue Titel auf Frostebite 3 Engine setzten. Das wäre also für AMD gegenüber NV aktuell doch ein Argument, falls man diese Games zockt.

Naja AMD kann wohl profitieren, dass die neue Konsolen x11.1 unterstützen.
 
Zuletzt bearbeitet:
@ReVan1199
Du bist anscheinend nur unfähig, dich darauf Einzustellen. Viele andere kommen super damit klar, es is nur eine super Ausrede alles auf den Netcode zu schieben.
 
PhilAd schrieb:
So eine Diskussion braucht man doch garnicht zu führen? Vorallem ist die sichtweise total 'merkwürdig'. Wenn nvidia meint dass diese Kunden kein DX11.1 benötigen, dann können sich die Kunden bei Bedarf an einen anderen Hersteller wenden? Wieso muss sich die Welt nach nvidia drehen, wenn Alternativen da sind und man die Wahl hat, zumal das Spiel auch ohne DX11.1 läuft?
Schlimm genug, DASS sich viele nach nvidia richten, obwohl es gute und offene Alternativen zu dessen proprietären 'Alleinstellungsmerkmalen' gibt.
Total perplex zu sagen, dass man als nvidia-kunde ea dafür boykotierne müsste, dass sie aktuelle zur Verfügung stehende Technologien nutzen. Wenn DX11.1 so wichtig für dich ist, haste die falsche Karte gekauft. War ja vorher nicht unbekannt.

Wieso sollte ich das Spiel nicht boykottieren, wenn hier gegen nVidia und Intel-User gearbeitet wird?
Aber immer schön zu sehen, wie AMD Leute das exakt gleiche Verhalten 180° anders interpretieren. Naja, nichts neues im Internet.

Und freu mich ja schon auf die Posting, wenn BF4 erschienen ist und Leute auf Updates warten, weil das Spiel nicht auf ihrer Hardware vernünftig läuft. Ich meine, immerhin waren EA und AMD doch so freundlich und haben klar Schiff gemacht.
 
TrollzZz0r schrieb:
Die eins hinter der elf ändert nicht viel an der eh schon guten Grafik, das einzige was sichtlich besser geworden ist in BF4 sind Charaktere und deren Animationen. Ich würde mich ja freuen wenn die BF Grafik auf OpenGL basieren würde das ist nämlich genau so hübsch (evtl. 5-10% dunkler). Wie ReVan schon sagte, am wahren Problem dem Netzcode wird kein Wort gelassen.

Der Netcode wurde, nach vielen Interviews und auch durch dem Livestream während der E3 bekanntgegeben, überarbeitet. Soll auch was mit dem synchronisieren der Wellen zu tun haben, dass jeder das gleiche sieht. Während der Alpha hat man auch schon eine Verbesserung diesbezüglich gespürt.
 
"die CPU zu entlasten, da die Grafikkarte zusätzliche Aufgaben übernehmen kann."
Heute läuft doch meist die GPU bereits am Anschlag und der CPU gammelt bei 50-80% rum, dann auch noch mehr auf die GPU auslagern? D:
Am Ende sieht man eh nix davon, der Sprung ist einfach zu klein und Windows 8 kommt mir sicherlich nicht auf einen Gaming Rechner. (Selbst verwendet für rund 3 Monate, etliche Spiele geben nur Blackscreen aus oder laufen nur mit extra Win 8 fix etc., ansonsten tolles System.)
 
Naesh schrieb:
Noch kein Spiel hat meine CPU ( oder meine alte 3570k) mehr als 40% ausgelastet.

Du spielst die falschen Spiele?
 
Zurück
Oben