News AMD zeigt lauffähige DirectX-11-Grafikkarte

@drago-museweni: DX10 und auch DX11 bieten keine Grafikpracht, die man mit DX9 nicht auch hinbekommen könnte. Die Verbesserungen sind meist eher für Entwickler interessant, weswegen es blöd ist, dass mit DXxx immer Werbung gemacht wird und dass Nutzer immer auf DXxx warten wollen.

Wenn ich mir zum Start z.B. eine DX11-Karte kaufe und dann nach zwei Jahren wieder eine neue, dann habe ich bis dahin vermutlich eh fast gar kein Spiel mit DX11 gespielt. Mal abgesehen davon, dass es optisch eigentlich nix bringt.

@Killermuecke, gruffi:

Für 1200 Shader reicht die Größe doch vollkommen aus. Und mehr wird AMD auch nicht bringen. Aus ganz einfachem Grund: Sobald AMD mal ein gutes Produkt herausbringt, kriegen die Angst sie könnten Geld verdienen und drehen dann Däumchen, damit sie die nächsten Generationen endlich wieder in den Sand setzen. Ist nur ne Vermutung, aber man bekommt so das Gefühl, dass da was dran sein könnte.
 
Zuletzt bearbeitet:
vielleicht kalkulieren sie auch so, daß man dann für eine Hochleistungskarte immer zwei GPU-Chips nimmt. Insofern ist diese Lösung doch günstiger als einen Riesen-Chip zu verwenden, und Strom sparen könnte man demgegenüber im IDLE und 2D-Betrieb auch, indem man einfach eine GPU+RAM abschaltet.
 
Ich habe eher das Gefühl, man wird etwas konservativer an die Sache gegangen sein, da 40 nm ein neuer Prozess und das Risiko für grosse Chips nicht gerade gering ist. Zudem funktioniert der RV770. Da heisst es beim RV870, Schwächen beseitigen, Stärken ausbauen. Man braucht nicht alles umkrempeln und vom Konzept abweichen. Zumal mit solch kompakten Chips X2 oder gar X3 Varianten möglich sein dürften. Mit einer X3 und 850 MHz Kerntakt wären das satte 6 TFLOPS. So wie man hört, soll RV970 wohl eine neue Architektur werden. Da wird man sicherlich auch eher Entwicklungsressourcen dorthin abziehen.
 
ja das wird wie schon geschrieben amds ziel sein, es ist nur eine frage ob sie das vernünftig hinkriegen. Eine Grafikkarte fürs highend mit 4 kleinen chips und für normale gamer mit 2 chips und lowend mit einem chip macht für amd mehr sinn wie einen monsterchip für alle (jeweils vielleicht noch mit lasercuts beschnitten) und wegen der kleieren größe weniger ausschuss etc. Es hat nur vorteile, wenn

WENN...
amd die Probleme mit Microrucklern und Stromverbrauch halbwegs in griff kriegen, wobei ich da eh nicht auf dem aktuellen stand bin soweit ich weiß tretten die doch eh nur in bereichen unter 50fps auf, mit 4 chips käm man vielleicht eh lange nicht in die regionen wenn man bei nem nvidia monsterchip vielleicht schon unter 30fps rutscht.
 
Tekpoint schrieb:
Bin ja mal gespannt wenn meine DirectX11 karte im Rechner läuft und seien Arbeit tut.

Was bringt mir Bilder? Ich will ne HFD5870 aber jetzt bin ich zur Zeit an überleben mir ne HD4770 zuholen wegen Stromverbrauch und weil ich zur Zeit nicht wirklich viel Zocke.

Bevor ich mir diese Frage stelle, würde ich mir eher um meine Rechtschreibung ein wenig mehr Sorgen machen. :D



Ich sehe das im Moment so: Es gibt kaum Spiele die DX10 ausnutzen. Bis die ersten Games DX11 benötigen, bzw. davon profitieren, vergehen sicher noch 1,5 Jahre. Weihnachten 2010 dürfte es dann soweit sein. Vorher werde ICH mir keine neue Graka mehr kaufen - hab aber auch gerade erst bei der 4770 zugeschlagen.
 
Was soll den das Video zeigen selbst wenn das jetzt in der Ultra auflösung gelaufen ist mit DirectX 11 hat das ja nicht viel zu tun.

Hab da noch eine Gforce 2 rumliegen die Techdemos von der waren berauschender.
 
Ganz grob geschätzt hätte der gezeigte Chip ca. 1,1 Mrd. Transistoren, Vergleich ca. 950 Mio. beim RV770. Wenn nicht stark optimiert wurde, wird sich die Anzahl der Shadereinheiten nicht signifikant erhöhen. Der Zuwachs könnte schlicht auf die erhöhte Funktionalität zurück zuführen sein. Spannend bleibt, ob endlich eine brauchbare Multi-GPU Technik mit ordentlicher Skalierung und ohne Ruckler realisiert werden konnte.
 
Hallo!

Hmm, warten auf DX11 Grafikkarten. Ich frage mich ob das Sinn macht. War es bei DX10 nicht auch so das die erste Generation der Grafikkarten zwar von den Features her DX10 konnten aber nicht genug Power hatten um es flüssig darzustellen?

Das Problem stellt sich heute mehr den je. Zumindest wenn die heißgeliebte Röhre den Geist aufgibt und man dann mit dem TFT auf Auflösungen 1680 x 1050 angewiesen ist. So bei mir passiert - und heilfroh das ich zumindest eine GTX 260 im Rechner habe, denn drunter muss man wieder irgendwelche Features abstellen was ja irgendwie sinnfrei ist.

Weiterhin kommt dazu das bis die ersten DX11 Games auf dem Markt sind schon wieder die nächste oder übernächste Generation der DX11 Karten auf dem Markt ist und die Games diese Hardware dann auch erfordern.

Ich möchte keine Lanze über die kommenden DX11 Gaka's brechen. Aber ob DX11 bei den Garak's der ersten Generation Sinn macht möchte ich bezweifeln.
 
naja grob geschätzt 1.2mia transistoren hin oder her, wer beweist uns noch das es auch tatsächlich die highendlösung der HD 5xxx sein wird? könnte auch ein mittelklassechip sein der hier zu sehen ist.da wird man wohl noch mit den gerüchten leben müssen.
 
Soll nicht die Tesslation in DX11 die Systemlast bei höheren Details senken? Also etwas in richtung:

DX9/10: Modell mit 2500 Polygonen -> keine Tesslation -> Modell hat weiterhin 2500 Polygone= 100% Systemlast
DX11: Modell mit 2500 Polygonen -> Tesslation -> Modell hat nun 5000 Polygone = Systemlast 95%

Ja is gerade vielleicht ein wenig übertrieben dargestellt aber ich denke jeder weiß nun was ich meine oder?

Demnach ist ein umstieg eigentlich nicht schlecht. Und wenn ich es noch richtig im Kopf habe sollen die momentanen DX10.1 Karten DX11 eingeschränkt können, war glaube ich in 5 Phasen unterteilt und die DX10.1 Karten sollen bis Phase 4 mithalten können. Kann mich auch gerade komplet irren und ich rede gerade von nem ganz anderen Artikel den ich mal gelesen hatte.
 
Wahrscheinlich waren das die low Range Karten, da man bekanntlich immer erst mit kleineren Modellen anfängt die einfacher zu bauen sind.
High End Lösungen kommen erst später :p
 
vielleicht kommt ATi endlich mit mehreren Dice in einem Package? :rolleyes:
 
vielleicht kommt ATi endlich mit mehreren Dice in einem Package?

Gabs das Gerücht nicht schon bei der 4000 Serie ?

@sHx.Shugo
Ich glaube bei Tesslation gehts mehr um die effizente Darstellung von SDS Flächen
wobei das in der Praxis auf das Gleiche rauskommt.
Nur der Entwickler der es nutzen will hat etwas mehr zu tun.
 
Zuletzt bearbeitet:
YESSSSS

endlich tesselation

ich glaube ATI wird punkto tesselation einen haushohen vorsprung haben, da schon seit ein paar generationen eine tesselation engine in den ATI chips schlummert
 
Sgt.Speirs schrieb:
Spätestens wenn aktuelle Spiele auf DX9-Karten nicht mehr laufen und ein Wechsel auf DX10- oder DX11-Hardware ansteht, dürfte jeder normale Mensch auf eine aktuelles Betriebssystem umsteigen ;)

Nö, im Gegenteil! Guck dir die Steam-Statistik an. GERADE die Leute, die durch die Grafikkarte zum Update genötigt werden, bleiben auf der anderen Seite bei XP. Logisch: Selbige sind zumeist Schrauber, die eben wirklich _nur_ die Grafikkarte wechseln. Die Kunden der Lowend-Technik dagegen kaufen Komplettsysteme, wo Vista bei ist. Darum wird imho auch die Strategie mit DX10 für Microsoft nach hinten losgehen: Normalerweise kommt für eine neue DX-Version immer erst die Software, dann die Hardware in die Masse - dies hat MS umgedreht und geglaubt, dass dies durch bessere Verkaufszahlen von Vista kompensiert wird. Passiert ist aber das Gegenteil: DX10 ist noch immer eigentlich völlig uninteressant, da die Verbreitung gering ist. Nur: Die HARDWARE, die ist inzwischen da. Mich würde insofern nicht wundern, wenn da demnächst einiges OpenGL 3.0 aus den Löchern kommt - damit gehen nämlich DX10-Features unter XP _und_ Vista. Den Termin würde ich ungefähr da sehen, wo ein Verzicht auf DX9-Hardware am Markt kein Problem mehr darstellt (also in ~2 Jahren).
 
Also ich kann mir bei ~180mm² auch MCP vorstellen.
zwar wurde das schon für die HD4XXX Serie vorhergesagt, doch wenn man nun wirklich einen so kleinen RV870 hat, so ist das doch gut möglich.

War der Codename des RV870 nicht auch LilDragon, was in etwa "kleiner Drache" bedeutet?
Es könnte sich also tatsächlich um einen winzigen Performancechip handeln.
Vielleicht hat AMD/ATI den Chip auch wesentlich effizienter gestalten können, sodass er trotz seiner winzigen Größe doch extrem schnell ist?!
 
Wenn man bedenkt, dass man von 55nm auf 40nm in etwa nur noch die Hälfte an Platz braucht, dann ist doch der Unterschied von 282mm² des RV770 zum 180mm² großen RV870 gar nicht mal so verkehrt. Immerhin ist das 27% mehr Fläche, was etwa 1000 Steamprozessoren sein könnten?! Eventuell kommen ja wirklich die 1200 zum Einsatz?

Die Neugierde und Spannung ist einfach nicht zu bremsen.
 
stoneeh schrieb:
ich glaube ATI wird punkto tesselation einen haushohen vorsprung haben,


Das erinnert mich an den haushohen Vorsprung, den man ATI bei den Unified Shadern angedichtet hat, weil der XBox Chip die ja auch schon hatte.:evillol:


@ #56

Die Karte gibt es nicht, deshalb durfte man sie ja auch nicht sehen.
 
Naja das Problem ist eher, dass gar nichts Tesselation bei ATI genutzt hat.
Dadurch haben die keine Erfahrung damit, aber wer weiß :p
 
Zurück
Oben