Bericht AMD im Interview zur Radeon HD 7990 und zu Mikrorucklern

snakebite schrieb:
Da gibt es nix zu beschönigen!

Dual GPU Karten leiden unter Mikrorucklern, sind viel lauter und verbrauchen viel mehr Strom!

Die Produktsparte ist überflüssig und gehört verboten!

Naja, manche Leute können die wohl schon ganz gut gebrauchen wie zum Beispiel für:

- Realtime Multi-GPU OpenCL Ray Tracing / Path Tracing Engines (Beispielsweise Brigade 2 auch wenns CUDA ist. Je mehr Power je weniger / kein Rauschen)
- OpenCL mehrerer GPUs für extreme realtime Physik- / Kleidung- / Haarberechnungen usw.
- GPU-Hash-Cracking / Folding@Home / Bitcoin / sonstiges OpenCL Zeugs

Aber zum Mainstreamzocken zur Zeit im Crossfire wirklich gar nicht zu gebrauchen :freaky:.

0x4A6F686E schrieb:
Wenn sich also herausstellt, dass eine GPU für den Frame 20ms benötigt, so kann der Treiber der Engine alle 10ms einen neuen Frame abnehmen und alternierend an die GPUs verteilen. Allen wäre geholfen und Mikroruckler würden nicht mehr auftreten.

Das Problem ist jedoch, dass man im vorhinein nicht sagen kann wie lange ein Frame benötigen wird.
Je nach Level of Detail / Szenenwechsel / Culling ändert sich das ganz schnell.
 
CD schrieb:
...
@Matzegr: Neben SLI und AFR existiert ja noch die Möglichkeit, dass die erste Grafikkarte die obere Bildhälfte rendert, und die zweite Grafikkarte kümmert sich um die untere Hälfte. Anschließend wird das Bild zusammengesetzt und ausgegeben. Kritisch ist hierbei die Wahl der Trennlinie, denn beide Karten einfach jeweils 50 % berechnen zu lassen würde im schlimmsten Fall nicht viel schneller sein als eine einzelne Karte (Bsp: Rennsimulation, erste Karte muss größtenteils nur Himmel rendern und erledigt das in weniger als einer Millisekunde, während die zweite Karte die Hauptlast bestehend aus Rennstrecke und Autos hat). Also müsste man vor dem Berechnen irgendwie rausfinden wie man das Bild trennen muss damit beide Karten ungefähr gleich viel zu tun bekommen. Und das kann auch wieder Leistung fressen.
...
und genau das hatte damals zu zeiten von 6800gt/ultra und 6600gt/non-gt nvidia so gehandhabt. man konnte sich damals wie heute den auslastungsbalken des sli-systems anzeigen lassen. dabei wurde die dynamische trennung von graka1 oben und graka2 unten mit einer dünnen linie dargestellt und zusätzlich von dieser ausgehend nach oben und unten die jeweilige (möglichst symmetrische) auslastung angezeigt. obs das auch noch mit den 7000er karten gab, ist mir nicht bekannt. jedoch war es bei den 8000er karten schon nicht mehr verfügbar.

es wurde also bei viel rechnerei im unteren bereich der karte für den oberen bereich "mehr" bildschirmfläche zum rendern übergeben, und das untere stück war somit kleiner. beide karten hatten damit immer etwa dieselbe rechenleistung aufzubringen, ohne daß sich eine totschuftet und die andere permanent urlaub hat.

leider wird eine solche methode mit drei oder gar vier karten im SLI auch recht unübersichtlich. warum nvidia dieses system also abgelegt hat, ... fragt sie mal. ^^
 
Könnte der Grund für die wechselweise Berechnung von Frames statt Zeilen nicht sein, dass es durch Beleuchtungs- und ähnliche Effekte Wechselwirkungen zwischen Zeilen gibt, die, wenn von unterschiedlichen GPUs berechnet, schwer zu berücksichtigen sind?
 
Ich vermute ja das ein Grund zum einen die Software darstellt. Die selbst nach Jahren mGPU Karten auf den Markt, noch immer für jedes Spiel einzeln optimiert werden muss. Ist das Programm das gut auf MGPU ausgelegt gar optimiert läuft einfach besser. Irgendwie gewinne ich so den eindruck das es sich bei mGPU um reine Prestige- und Nischenproduketreihe handeln soll. Die leider gezwungener Masen so klein ist das sich auch kaum ein Entwickler die Mühe macht mGPUs gut in ihre Programme ein zu binden. Oder liegts am Windows, den fehlenden Zugriffen auf die Hardware? Zumindest hab ich nicht so den eindruck das sich eine menge Leute viel Mühe geben darauf zu Optimieren. Gemessen am Gesamtmarkt sind halt mgpu lösung auch ein sehr kleiner Markt. Hauptziel/nutzgruppe: Reich, Messe, Enthusast. 4k, Bildschirmwände und was weis ich, dann mag so mgpu zwar Notwendig sein, die bekommen es früher oder später aber führ ihre Zwecke zum laufen.
Für jedes Spiel müssen Treiber her damit SLI/CF erstmal ohne Grafikfehler anläuft(vielleicht etwas übertrieben). Ist auch im Grunde viel zu teuer. Man kann die theoretische Leistung verdoppeln, doch das tut sie ja nur Theoretisch. Praktisch müssen auch beide mGPUs auch syncron und gleich schnell performen, und da wartet in der Praxis oft immer ein Kern auf den anderen und es kommt zu fühlbaren Rucklern.

Von den geplubber bin ich ehrlich sehr entäuscht. Nichts substanzielles, nur Marketinggewäsch, leider. Seit Voodoo4 dieses Ruckelproblem. Was ich äußerst erschrenken finde, nach einem Jahrzent gibt es keine "Universelle mGPU schnittschelle". Für jedes Spiel müssen Quasi eigene Treiber her. Das ist ist für mich unverstänldich. Daher glaube ich gar nicht daran das sie was daran ändern wollen. Entweder weil zu für sie viel Teuer(Marge, Preisgestaltung, Materialkosten) oder weil sie es als Wirtschaftlich nicht Sinnvoll erachten? Man stelle sich die Leute vor die 4 xxx/xxxx Nvida/AMD low budget Karten zusammen schnallen um dann die Leistung einer 10 mal so teuren Highend karte zu haben. Außer Höhere Materialkosten hat weder AMD noch Nvidia etwas. Zugegeben sehr spekulativ und ich möchte jetzt auch keine verschwörungstheorien anstossen. Doch nach dem jetzigen Schrinkmuster der Halbleiterevolution, machen mehrere Chips die die gleiche Leistung wie ein Großer mit einbezug auf die Yields und der Preisstaffelung, nur bedingt Sinn. Kleine Chips mit hoher Yield günstig, große neue mit schlechter sehr Teuer. Wie würde es aussehen wen Karten auf den Markt kommen x8xx Serie kommen die man jetzt plötzlich Ruckelfrei zusammen schalten kann und von jedem Spiel angenommen werden.

So könnte Nvidia und AMD sich abwechselnd schön den Ball zu spielen, willkommen im Oligopol. Wirkliches Interesse was zu ändern lese ich aus dem Artikel zumindest nicht raus. Kann es sein das die euch schon auf den Kicker haben CP :p, der von AMD liest sich irgendwie etwas beleidigt. :D
 
Zuletzt bearbeitet:
Amok-Sepp schrieb:
Ausweichendes Marketing Bla Bla... :rolleyes:

Danke für das Interview. Die Fragen waren durchaus gut, leider habe ich bei den Antworten nur "blaa, bla blabla, bla blaaaa." gehört. Informationsgehalt gleich Null.

Ich weiß, dass sich eine so eine "kleine" Seite wie CB es sich nicht leißten kann, aber ich wünsche mir immer ein wenig mehr dreistigkeit bei Reportern. Im Sinne von "Was Sie das laber ist doch offensichtlich Quatsch" oder "Beantworten Sie bitte meine Frage" oder einfach gehen und sagen "Das ist hier doch kein Werbegespäch für Ihre Firma, wir hatte auf ein informativeres Gespräch gehofft. Schönen Tag noch."

:D
 
.p0!$3n. schrieb:
oder einfach gehen und sagen "Das ist hier doch kein Werbegespäch für Ihre Firma, wir hatte auf ein informativeres Gespräch gehofft. Schönen Tag noch."
Ah ja. Dann hat man garnix. Doll.

Das Gespräch ist durchaus informativ, man muss nur lesen. Einfache Antworten wie "ja" und "nein" wären ohnehin zu wenig.
Erwartest du ernsthaft, dass sich jemand hinstellt und sagt "Unser Produkt ist schlechter. Kaufen Sie lieber das andere."? Dann wird der von seiner Firma gefeuert. Feddich.

Und als Journalist hätte man sicher auch gerne beim nächsten Gespräch einen Gesprächspartner. AMD ist zwar insgesamt auf Presse angewiesen, aber das hindert die nicht daran, die nervigsten Interviewer zumindest nicht mehr zu bevorzugen.
 
Wieso so ein Interview? Etwas Objektives kommt nicht dabei raus, das muss doch jedem klar sein. Pures Marketing. Da ich davon ausgehe, dass die Menschen von CB nicht dumm sind, müssten sie dich dem doch bewusst sein. Was bedeutet, dass CB eine Marketingplattform ist?
 
Man führt allgemein Interviews, um an Informationen zu gelangen.
Auch wenn die dann nicht unbedingt als Dialog veröffentlicht werden. Und da motzt keiner "blödes Interiew"... Wie sollte man auch sonst etwas über die Zukunftsplanung eines Unternehmens erfahren, außer indem dieses etwas darüber erzählt?

Das so 1:1 zu veröffentlichen, finde ich gut, da kann man schließlich selbst nachlesen und interpretieren, was denn nun wirklich gesagt wurde.
 
Da sind jetzt nicht wirklich Informationen drin, und ich weiß ehrlich gesagt auch nicht, was du da reinliest. Aber offensichtlich kann CB demnächst auch mit Kaffeesätzen Interviews führen und Leute würden dem zustimmen.
Der Typ wird dafür bezahlt den Eindruck zu schinden Informationen preiszugeben. Wer da was reinliest, was man nicht schon weiß, der ist darauf reingefallen.
 
Alle in meinem Bekanntenkreis und ich selbst, die einmal eine Dual-GPU Combo im Rechner gehabt haben, sind bei der nächsten Generation wieder zu Single-GPU zurückgekehrt, weil ihnen die Probleme mit solchen Karten (und Mikrorucker sind nur eins davon) zum Hals rausgehangen haben.

Die einzige Existenzberechnung von Dual-GPUs ist, dass der Hersteller im Benchmark-Krieg mit dem Konkurrenten den Längsten hat. Für den Anwender sind sie sonst witzlos - außer einer hat das Gefühl, dass er auch den Längsten braucht.
 
Respekt!

KEINE EINZIGE wirkliche Aussage bzgl. Mikroruckler bei mehrmaligem Nachfragen.
Der Mann sollte in die Politik.

MultiGPU sucks forever...
 
Ulukay schrieb:
Full Ack. Was hilfts, wenn die Frames in absolut gleichen Abstaenden ausgegeben werden, deren Inhalt aber stark mikroruckelt?

Wie soll denn der Inhalt eines Frames stark microruckeln? Sind die Frametimes angepaßt, gibt's kaum noch mircroruckler
 
KamehamehaX10 schrieb:
Bah Mouselag. Überall Mouselag. In schlechten Ports, mal sind es nur bekloppte Einstellungen, die man im Spiel oder ergooglet in einer Config überschreiben muss. Wer will sowas? Das löst das Problem gar nicht. Und NVidia macht das schon die ganze Zeit? Wie dumm muss ein Fanboy sein um das zu loben, und wie gekauft und/oder blind der Autor eines Tests?

Dazu: Würde damit zwar der Bildverlauf konstanter werden, aber nicht die "Spielgeschwindigkeit"? Angenommen ich habe einen einfachen Ballflug. Wird ein altes Bild absichtlich später angezeigt, ist die Geschwindigkeit in diesen Abschnitten nicht konstant, aber insgesamt absurderweise ja. Der Ball stockt also und holt das dann nachher mit Extrageschwindigkeit nach zw. er würde dann irgendwie zittern, nur konstant mit Bewegung in die Richtung?
Was wäre das dann? Man kann wählen zwischen dem modischen Begriff "Mikroruckler" und dem noch besseren "Mikrowarp"?

Da bitte sehr, lesen.
 
@KamehamehaX10:

Sehr schön beschrieben, spich wenn die Engine Bilder in unregelmäßigen Abständen raushaut, kann man an der Grafikkarte so viel rumschrauben wie man will. Das ist und bleibt Symptomebekämpfung. Das Beispiel mit dem Ballflug trifft es sehr gut. Dann wird auch bei FCAT ein gleichmäßiger Verlauf angezeigt, nur ist die Bewegung deswegen nicht gleichmäßig.

Folgerichtig wird man dann natürlich Verlangen, dass die Grafikkarte Bewegungen gefälligst zu erkennen und mit interpolierten Frames zu unterfüttern hat....
 
Andregee schrieb:
Wie soll denn der Inhalt eines Frames stark microruckeln? Sind die Frametimes angepaßt, gibt's kaum noch mircroruckler

Das hängt davon ab, wo die Frametimes angepasst werden. Wenn es direkt in der Engine passiert dann ruckelt nichts mehr. Wenn die Engine aber weiterhin Frames im Zick-Zack-Muster (so wie man es von Fraps bei MultiGPU halt kennt) rauswirft und einfach hintendran vom Treiber ein variables Delay eingebaut wird, dann hilft das keinem.

Und genau dort scheint ja auch das große Problem zu liegen: der Engine vor der Berechnung mitzuteilen wie lange sie vor dem Rendern zu warten hat. Bzw. diesen Wert erstmal selbst genau zu kennen und dynamisch anzupassen. Denn die Vorschlaghammer-Methode mit "ich pinne min- und max-fps mit nem Limiter einfach auf den gleichen Wert" geht zwar, ist aber nicht so elegant.
 
Andregee schrieb:
Wie soll denn der Inhalt eines Frames stark microruckeln? Sind die Frametimes angepaßt, gibt's kaum noch mircroruckler

Natuerlich kann er das. Wenn der Inhalt jedes 2. Frames sich zum Frame davor, nur sehr geringfuegig aendert, dann hast du genauso Mikroruckeln - egal wie gleichmaessig die Frames am Ende ausgegeben werden. Das kannst aber idr. nur direkt in der Engine, oder vielleicht auch im DirectX fixen.
 
Es muss was anderes als AFR her.
 
Exakt. Solange AFR verwendet wird, gibts Nachteile gegenueber SFR oder einer single GPU. Selbst wenn alle Mikrorucklerprobleme geloest sind, haette AFR einen hoeheren Inputlag als SFR.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben