ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

unwahrscheinlich das das korrekt ist...eher nen versuch von wem die Erwartungen zu puschen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Grad auf GameStar gelesen: Die MSI 5870 Lightning, mit Twin Frozr 2 Kühler, hat einen Standard GPU Takt von 1000 MHz!

Na wenn das mal keine guten Aussichten für eine 5890 sind.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

1000mhz? Wird dann in etwa 15% schneller als eine HD5870 sein und 60% schneller als ne GTX285, aber ich glaub kaum, dass sich der Aufpreis lohnt.
Ich warte da lieber mal auf ne HD5890. Ich frage mich, warum ATI eine HD5870 mit diesem Takt zulässt?
Die Chancen könnten somit gut liegen, dass die HD5890 mit 1100mhz Takt kommt.:D
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Natürlich wird die Karte sehr teuer, aber es ist ein gutes Zeichen für die 5890, die dann aber mit einem deutlich potenteren Kühler erscheinen muss.

Bei 1100 könnte die Karte sogar über einer GTX 380 liegen, nach meinem Glauben. Aber fraglich ist ob ATi die Taktschraube so weit hochgehen lässt, wären immerhin + 250 MHz, bei einer GPU extrem viel.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

GF100 and GF104 feature full SLi capability and a new scaling method for rendering!

Könnte das bedeuten - angenommen die Infos stimmen natürlich - dass AFR Geschichte sein soll?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Was hat rendering mit Multi GPU zu tun? Wenn das so wär wärs natürlich toll aber ich glaube da nicht drann.^^
Die neue rendering Methode hat wahrscheinlich die Architektur des Femris bis zu einem bestimmten Punkt verändert.
Ich glaub aber eher an Performanceverbesserungen bzw Verbesserungen in der Architektur, welche jetzt auch bald kommen müssen, da das stetige aufpumpen der TMUS, Shader etc... irgendwann auch mal an einer gewissen grenze angelangt sein wird.
Man sieht ja dass immer kleinere Strukturen dann früher oder später zu Yield Problemen wie bei TSMC führen können.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Was soll denn anstatt AFR kommen? Das beide an einem Bild rechnen? Das hat ne viel schlechtere Performance und braucht auch mehr Bandbreite.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Aber keine µRuckler. SFR geht btw schon per NV-CP.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Dir Frage ist halt wie das in der Praxis ausschaut. Also ob man den Leistungsverlust das Fehlen von Mikrorucklern wert ist.

SFR macht aber auch nur mit Load Balancing (Scissor Mode) wirklich Sinn, da z.B. in Crysis dann eine Karte viel Himmel (nicht sehr aufwändig) und die andere Karte viele Pflanzen, Wasser, Explosionen etc. dartstellen muss, was dann immernoch sehr schlecht verteilt ist. Mit Load Balancing müsste die Karte mit dem Himmel dann mehr als die Hälfte berechnen, was dynamisch angepasst wird.

Ich halte SuperTilling (ein ähnliches Verfahren funktioniert bei der Xbox 360 auch sehr gut) ebenfalls für eine Interessante Methode. Hier wird das Bild in ein Schachbrett aufgeteilt und jede Karte berechnet eine "Farbe".

Ist aber alles viel schwieriger zu implementieren und MultiGPU ist nunmal ein sehr kleiner Markt in dem wenig Geld verdient wird. AMD hat ja selber gesagt, sie könnten µRuckler beheben, jedoch sitzt zz. nur ein sehr kleines Team an diesem Problem.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

super tiling klingt für mich sehr interessant. wenn dann am ende "echte" fps, sprich ein gleichmäßiger frameverlauf dabei rauskommt, ist das imo ne gute sache. fragt sich halt nur, wieviel watt pro fps eine dual-gpu dann zieht im vergleich zur einzel-gpu-lösung.

bisher bin ich bei multi-gpu skeptisch.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

NV hat sogar n Patent angemeldet ...
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

y33H@ schrieb:
NV hat sogar n Patent angemeldet ...

Irgendeine Quelle ?

Sicherlich kann man auch was neues erfinden aber extra für den Enthusiasten-Markt soviel Kapital zu investieren sieht einem Großunternehmen nicht ähnlich.

Die Zeiten von Philips,IBM und Siemens sind leider vorbei.
Nun zählt nur noch soviel Geld wie möglich so günstig wie es geht zu erwirtschaften.

Wenn NVIDIA da doch etwas eigenes auf die Beine stellt dann Hut ab. NVIDIA wird dadurch doch deutlich sympathischer ! ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ailuros schrieb:
Gut dann wird's Zeit dass der schlechteste mod hier das Blatt etwas wendet:

Sie haben anscheinend doch ziemlich gute Hausarbeiten geleistet was Dreiecks-raten bzw. Tesselation betrifft und auch mit dem ominoesen AA Muster ueber welches man schon seit Jahren meckert. Zumindest die MSAA Anzahl fuer das 32xAA hab ich wohl getroffen und errrr weiteres gibt es erst spaeter sonst krieg ich noch eins aufs Dach ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7774727#post7774727

er bezieht sich wohl auf dieses post:

Ailuros schrieb:
http://www.facebook.com/NVIDIA?ref=nf



8xMSAA+24xCSAA? Ich weiss zwar nicht was damit gemeint ist, aber vom Hocker reisst mich die Meldung so oder so nicht.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7734112#post7734112
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Bereits gegen Ende 2009 hab es Gerüchte, dass sich der Grafikkarten-Markt, zumindest was die Partner von Nvidia angeht, ändern würde.
Seltsame Überschrift - was hat denn AMD damit zu tun dass Nvidia seine Partner am ausgestrecktem Arm verhungern lässt?
Keine GPUs = Keine Karten die ich verkaufen kann wenn ich nur Nvidias baue - logisch.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Motkachler xD na das wär doch mal was! Ich glaube aber nicht, auch wenn NV angepisst wäre, so würden die sich kaum von der "Kundschaft" abwenden, weil diese fremd gehen.

Irgendwie ist es erschreckend, NV kann kaum G200er liefern, der Fermi soll kommen wann ist unklar, völlig ungewiss und es ist sehr wahrscheinlich dass dieser schlechte Yield haben wird. Ich bin zwar eher auf AMDs seite, allein aus Firmenpolitischen Gründen aber NV soll mal AMD druck machen! Konkurenz ist das was schnellsten wieder bestehen muss wie zu HD3/HD4 gegen G80/G92b/G200 Zeiten.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben