News AMDs „Frame Pacing“-Treiber kommt am 31. Juli

Arno Nimus schrieb:
- hoher Stromverbrauch (und somit Notwendigkeit eines potenten aber energiefressenden Netzteils) hat man bei single GPU, eine 7970 ist 2,5 mal soschnell verbraucht aber über 3 mal soviel saft wie eine 7770
- hohe Wärmeentwicklung* hat man auch bei schnellerer sGPU
- hohe Lautstärke* 2*250W kann man einfacher kühlen wie 350W außerdem hat man das auch bei sGPU
- Abhänigkeit von Profilen da hast du recht
- Nur die Hälfte des Vrams kann genutzt werden (die andere Hälfte zahlt man logischerweise trotzdem mit) dafür kosten 2 grafikkarten nur doppelt soviel. normalerweise zahlt man für doppelte Leistung das 3 fache

*Es sei denn, man kühlt mit Wasser!
:)
 
Naja, mit RadeonPRO hat man ja schon länger die Möglichkeit, die Microruckler sozusagen auf 0 zu setzen, sie sind dann sogut wie gar nicht mehr vorhanden.
 
Pisaro schrieb:
Naja, mit RadeonPRO hat man ja schon länger die Möglichkeit, die Microruckler sozusagen auf 0 zu setzen, sie sind dann sogut wie gar nicht mehr vorhanden.

Ist zwar schade dass AMD selbst solange für eine eigene Integration gebraucht hat, aber mittels o.g. Tool ist CF sehr gut brauchbar. Wird hier gerne immer unterschlagen irgendwie.
 
Bei 3dfx SLI darf man aber auch nicht vergessen, dass es damals noch keine Features wie "Objektverdeckung" und Co gab. Die Berechnungen waren um einiges mehr "brute force". Technisch ist das zeilenversetzte oder auch das Halbbildrendern nicht mehr sinnvoll, weil Objekte, die heute direkt in der Grafikkarte berechnet werden, zu viel Overhead bedürften, um sie in einem der beiden anderen Modi zu berechnen.

Wobei Q3 Arena auf 2x Voodoo² 12MB im SLI schon Hammer war... immerhin die einzige Möglichkeit, das Spiel auf 1024x786 zu spielen. - Genial, nur leider selbst auf brauchbarem PC mit rund 15-20 Frames trotzdem zu ruckelig, um damit gegen die Kumpels im LAN was zu reißen... ^^

Die Eingabelatenz-Debatte muss hier auch nicht kommen... ich glaub, die ist bis zum Erbrechen besprochen. Und ich gehe davon aus, dass Computerbase dazu auch noch was schreiben wird, sobald der Treiber draussen ist(?).

Regards, Bigfoot29
 
Arno Nimus schrieb:
- Nur die Hälfte des Vrams kann genutzt werden (die andere Hälfte zahlt man logischerweise trotzdem mit)

Was so Ausgedrückt leider absolut falsch ist!
Natürlich wird der komplette VRAM beider Karten auch vollständig genutzt, nur liege in beiden immer die selben Daten....

Ist schon ein kleiner aber feiner Unterschied.....
Ergänzung ()

eLw00d schrieb:
Auch mit Radeon Pro gilt: Input lag wird größer

Und reduziert deutlich die FPS, schließlich macht das im Prinzip nix anderes als ander FPS Limiter auch.
Mehr ist das nämlich auch nicht......
 
Während Nvidia bei SLI gegen dieses Problem erst mittels Software und seit Kepler auch hardwarebasiert vorgeht,...

Ich kann mich an keine Testwerte erinnern wo eine hardwarebasierte Verbesserung sehen kann,
die nur durch Keplerkarten entstehen.
Das ist immer noch Software bzw. Treiber so wie sie es nun AMD versuchen.

Ich hab da sowieso nicht viel Hoffnung,
da man schon bei dem Alpha-Treiber sehen konnte das man sich um jedes Spiel kümmern muss und
nicht einfach ein Wundereintrag in die Treiber eingeben kann der für alle Spiele funktionieren, auch ältere.
 
Euphoria schrieb:
Naja sinnvoll wird es wohl nie werden, da der Stromverbrauch im Vergleich zur Leistung relativ hoch ist.
Es wird immer ein Enthusiasten/Nischenprodukt bleiben :)

Kommt immer drauf an, welche Karten man im SLI/CF laufen lässt.

Die PCGH hatte da mal letztes Jahr nen kleinen Test in dem sie zwei HD7850 im CF hat laufen lassen. Das Ergebnis war da doch ziemlich gut und der Stromverbrauch dabei gar nicht mal so hoch.

Ich denke, dass sich CF/SLI mit etwas kleineren Karten durchaus lohnen kann. Mit High End Karten dafür deutlich weniger.
 
Da bin ich wirklich gespannt, was AMD an Verbesserungen implementieren konnte. Vielleicht bekommt meine 7950 dann ja ein Geschwisterchen, anstatt eine 8970/9970 zu kaufen.
 
freyny80 schrieb:
Ja, dann wäre Crossfire mal eine gute Maßnahme, um auf die (inzwischen) überzogenen Preisvorstellungen der GPU-Hersteller zu reagieren.

Was ist denn das für ne Logik? Wenn schon eine Karte zu teuer, ist es gut dass man Zwei einbauen kann?
 
Dann warten wir mal die ersten FCAT-Ergebnisse ab. Auch wenn ich grade erst von Rot nach Grün gewechselt habe ist es wünschenswert wenn sich da bei AMD was tut und eventuell NVidia in Zugzwang gerät. Konkurrenz ist ja bekanntlich gut, vor allem für den Kunden ;)
 
Theo371 schrieb:
Da bin ich wirklich gespannt, was AMD an Verbesserungen implementieren konnte. Vielleicht bekommt meine 7950 dann ja ein Geschwisterchen, anstatt eine 8970/9970 zu kaufen.

Würde dir aufjedenfall zum Geschwisterchen raten ;)

Keinerlei Probleme mit meinen beiden, Mikroruckler sind mir heute noch immer keine aufgefallen!
 
Würde mich auch interessieren, wie sich der Input-Lag durch das Pacing verändert. Schließlich muss man ja Bilder vorhalten, wenn man sie nicht so schnell wie möglich rausballern will. Der Benutzer sieht also notwendigerweise öfters mal alte Bilder, die zu seinem Tastendruck von früher passen.

In jedem Fall sehr zu begrüßen, dass Mikroruckler von AMD/NV endlich beachtet werden. Ich konnte mich mit meinem HD6950-Crossfire nicht anfreunden, da mikroruckelte Crysis selbst mit 80fps vsync off, vergleichbar mit 40fps Single-GPU.

Hoffen wir, dass GPGPU mehr Einzug in Spiele hält, z.B. durch Physikberechnungen. Dann könnte man einen Teil der Berechnungen auslagern (z.B. GPU1 berechnet Grafik, GPU2 berechnet Physik und KI), also die zusätzlichen Grakas einfach als Co-Prozessoren benutzen.
 
Schon ein Schritt in die richtige Richtung, aber solange es keine richtige Hardware-Lösung gibt und die Frames nicht parallel (beide GPUs berechnen zusammen ein Frame) sondern seriell (die GPUs wechseln sich ab) berechnet werden, wird es immer Mikroruckler geben.

Die Volcanic Islands GPUs sollen HSA-Fähig sein, vielleicht geht da was mit hUMA.
 
Nur das der Treiber für Berechnungen und Pufferrung langsamer wird, wird nicht mit erwähnt.
 
Hat bei der Gelegenheit jemand Informationen, ob bzw. wie bei einer Trinity APU und dedizierter Grafikkarte im Notebook festgelegt werden kann, dass NUR die dedizierte GPU aktiv ist (also Crossfire inaktiv)?
 
Pisaro schrieb:
Naja, mit RadeonPRO hat man ja schon länger die Möglichkeit, die Microruckler sozusagen auf 0 zu setzen, sie sind dann sogut wie gar nicht mehr vorhanden.

Mit deutlichen Performanceeinbußen, denn du spielst wohl auf den fps-Limiter an. Frame pacing ist da mMn eine deutlich bessere Lösung - den Limiter kann man immer noch aktivieren, wenn das nicht reicht.
 
Arno Nimus schrieb:
- hohe Wärmeentwicklung*

*Es sei denn, man kühlt mit Wasser!

Die Wärmeentwicklung(Abwärme) bleibt gleich. Durch effektivere Kühlung verbessert sich nur die Wärmeabfuhr -> niedrigere GPU-Temperatur. Man verzeihe mir, wenn ichs an der Stelle genau nehme ;)
 
Peppercake schrieb:
Die Wärmeentwicklung(Abwärme) bleibt gleich. Durch effektivere Kühlung verbessert sich nur die Wärmeabfuhr -> niedrigere GPU-Temperatur. Man verzeihe mir, wenn ichs an der Stelle genau nehme ;)
Sorry, aber bei der Vorlage...
Wie wir alle wissen *insert klugshicer smiley here*, steigt mit der Temperatur auch der Stromverbrauch. :D
(kann durchaus 10% Mehrverbrauch sein je nach Temperaturen)

Es stimmt übrigens nicht, dass man ne Wakü braucht für 2 Karten. Für 3 meinetwegen. Aber 2 Karten bis ~200W kann man sicherlich noch leise mit Luft kühlen.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben