News Möglicher Termin für Radeon HD 5950

Da wird Ati mal wieder zeitgleich Nvidia den Kampf ansagen. Die Termine sind bestimmt schon abgestimmt. Aber so ist das Rangeln um die Kunden, wer zu erst kommt sticht den anderen aus.

Die Preise sehen gar nicht so schlecht aus von meinem Vorredner.
 
Anschauen lässt sie sich ja gut, die 5950, bleibt nur die Frage nach dem Sinn.
Könnte sein, das die Karte sehr geringen Stromhunger hat und in sachen Verbrauch/Leistung neue Bestmarken setzt.
Vielleicht kommt sie auch relativ günsig daher oder man wartet einfach das Portfolio von nVidia ab und schaut ob es noch eine Lücke gibt, die man mit der Karte besetzen kann.

Kommt mir das eigentlich nur so vor, oder werde uns die Bilder nun zum dritten oder vierten mal präsentiert und immer wieder als news verkauft?
Eventuell sind ein paar "gemunkelte" Specs dazu gekommen, aber da tuts dann auch nen Update.

@All:
Bitte den "grünen" Buntstift nicht beachten, er meint es garnicht so.
Sein Herz ist so schwer, weil sein heiß und innig geliebter grüner lieblings Hersteller derzeit nichts zu zeigen hat.
Frust, Schmerz und Verzweiflung muss er dann hier im Forum ablassen. Aber das ist gut so, sonst würde ihn sein Schmerz nach und nach auffressen.
 
Zuletzt bearbeitet:
Warum werden Karten zum Verkauf angeboten, die man nicht kaufen kann o0
>Stichwort: Verfügbarkeit
 
@Myxin_MoG:
Ich glaube, das wurde jetzt schon oft genug durchgekaut. Aber extra noch mal für dich: Der Auftragsfertiger TSMC hat Probleme, 40nm-GPUs zu fertigen.
 
@Arbiter Elite:
Die 5970 ist für die große Masse ja ohnehin nicht interessant. Daher wäre es vermutlich gar nicht so schlimm, wenn die 5750 den Standard-Takt der 5850 beibehält. Der Unterschied wäre dann natürlich etwas mager, aber die Leute, die eine 5970 kaufen wollen, sind ja eh Leute, die maximale Leistung wollen und sich nicht vom Preis abschrecken lassen.

Aber da wird man natürlich abwarten müssen. Ich gehe aber mal davon aus, dass es zwei vollwertige 5850 sein werden und der Preis dann bei $499 statt $599 oder evtl. $549 statt $599 sein wird.

Evtl. versucht man auch das Ding mit 2*6-pin PCIe-Steckern versorgen zu können. Dann müsste aber die maximale Leistungsaufnahme von 300W auf der 5970 auf 225W abgesenkt werden. Das ließe sich aber wohl nur mit deutlich niedrigerem Takt erreichen und wäre daher vermutlich nicht so sinnvoll.
 
Zuletzt bearbeitet:
ATI und die Boardpartner sollten lieber auf die Größe und den Stromverbrauch achten. Eine 5970 bekommt man in fast kein Gehäuse rein und die mesit vorhandenen Netzteile muss man auch noch austauschen. Wäre echt gut, wenn die 5950 so eine effiziente Version einer kurzen X2-Karte wäre, die etwa 30% schneller und nur 50% mehr verbrauchen würde als eine 5870.
 
Schaffe89 schrieb:
Eine HD5970 liegt in etwa 40 bis 50% vor einer HD5870.
Dann darf man mal davon ausgehen, dass eine HD5950 20 bis 30% schneller als eine HD5870 ist.

Ich gehe da eher von 10-20% aus. Weniger Shader und nochmals 100 MHz weniger GPUTakt sowie nochmals verkleinerte Speicherbandbreite.

Ab da sollte man sich eher für eine HD5870 entscheiden die es eventuell dann schon als OC-Version gibt.

Ich verstehe nicht warum ATI von der HD4850X2 anscheinend nichts gelernt hat.
Sobald eine Singelkarte in die Leistungsregion einer Dual-Karte kommt ist ihre Existenz in Frage gestellt.
Der Gegenspieler der HD4850X2 war die GTX285. Die HD4870X2 hat sich nur erfolgreicher verkaufen könne da die Benchbalken deutlich länger waren als bei den leistungsstärksten Singel-Karten am Markt.

Also:
a. Sie wird teurer sein.
b. Sie wird mehr Strom ziehen.
c. Sie wird schlechter zu kühlen sein.
d. Sie wird lauter sein.
e. Sie wird von Treiber-Profilen abhängig sein.
f. Sie wird unter Microruckler leiden.

Hab ich was vergessen ?

Vorteile wird wohl sein das man etwa 10-20% schneller ist als eine HD5870 aber diesen Vorsprung wird durch Punkt e und f mehr als vernichtet.

Fazit:
Wohl nur etwas für Leute die etwas besonderes,andersartiges in ihren Rechner stecken wollen.
 
geb ich dir fast recht, nur musst du auch sehen das die karte mit stark angezogener handbremse fahren wird und aus den 20% schnell wieder schaffes 30 werden können :D
womit e) & f) ein bischen an kraft verlieren und einer eventuellen vernichtung entgegen sehen:freaky:


sicherlich für ocer interresant...
 
Ich gehe auch von etwa 30% Vorsprung gegenüber einer 5870 aus. Zuviel kastrieren macht einfach keinen Sinn. Die Karte müssen die wegen der 2 GPUs und dem ganzen Speicher ohnehin teuer verkaufen. Wenn das Ding dann nur 10% schneller ist als eine 5870 und dann noch Mikroruckler bietet, dann ist die Karte einfach nicht attraktiv.
 
Na dann rechnen wir halt etwas nach.

Die HD5950 soll mit 625 MHz und 3800 Mhz Speichertakt kommen und mit 1440 Shadern aufwarten.

Eine HD5870 hat 850 MHz und 4800 MHZ Speichertakt und 1600 Shader.

Wir gehen von einer Skalierung von etwa 50% bei Crossfire aus.
Dann sind 625 Mhz Takt in etwa 26,5 % weniger als die 850 Mhz der HD5870 was dann nur noch 23,5% macht. Dann sind es noch weniger Shader wodurch ich etwa nochmals 2-3% abziehe was dann gut gemeint 21% übrig last.
Dann kommt noch die verringerte Speicherbandbreite dazu, was dann geschätzt am Ende 15% übrig lässt.

Im Schnitt wird es dann etwa 15% sein die die HD5950 gegenüber der HD5870 schneller ist.
Na da liege ich doch mit meinen grob geschätzten 10-20% doch optimal ! ;)

Ups... Sind doch 650 Mhz statt 625.
Also lassen wirs mal gut bei 20% sein. ;)
 
Zuletzt bearbeitet:
Ati wird seine NÄCHSTE TOP KARTE also zum Fermi start bringen ... hätt ich NIE gedacht :eek: (euch fehlt der Fermi wirklich fürn paar vergleichstests und analysen oder? Ich mein ... die Graka news aktuell erfinden ja praktisch das rad neu ... oder war irgendwem in diesem forum nicht bewusst, das ATi zum Fermi nachlegen würde?)
 
Der Fermi fehlt nicht nur für Vergleichstests der würde auch die Mondpreise wieder auf die Erde zurückholen.:)
 
@Pickebuh:

Sorry, aber die Rechnung ist totaler Blödsinn.

Zunächst einmal kommt die 5950 mit 2880 Shadern und vermutlich 725 MHz und 1GHz Speichertakt (also 4000 MHz effektiv).

Wenn man nur mal die Shader und Chip-frequenz betrachtet, dann hat man rein rechnerisch 2880 statt 1600 Shader, dafür aber nur 725 MHz statt 850 MHz. Rein rechnerisch macht das einen Faktor von 2880*725/(1600*850) = 1,54 aus. Der Speicher macht sicherlich noch ein bisschen aus, aber das dürfte sich eher in Grenzen halten.

Wenn Crossfire wirklich nur mit 50% skaliert, dann bezieht sich das nur auf die Steigerung, also bleiben von den 54% noch 27% über.

Wenn die Karte wirklich so wird, dann ist es ja ohnehin mehr oder weniger 2*5850 und 5850(CF) hat in den Tests ja ebenfalls etwa +30% gegenüber einer 5870.

Von 625 MHz habe ich noch nichts gehört, aber selbst damit dürfte der Vorsprung noch 20% betragen; bei höheren Auflösungen evtl. mehr.
 
die sollen sich lieber mal mit den midrange karten der 5***er serie beschäftigen.
 
Fake FPS aber nur dann wenn Die Frametimes Unterschiede aufweisen.
Generell haben sie keine Fake-FPS.
 
Myxin_MoG schrieb:
Warum werden Karten zum Verkauf angeboten, die man nicht kaufen kann o0
>Stichwort: Verfügbarkeit

Verfügbar sind die Karten immer wieder mal, man muss nur täglich in die Großhändler Info schauen. Gestern z.B. waren da auch noch 3 HD 5970 drinnen, allerdings zu einem EK Preis von etwas über 530€, der zugehörige VK dürfte bei 30% Gewinn und 19% MwSt bei etwa 820€ liegen. Ob die noch wer kauft? Wer weiß.

De facto ist es im Moment so, dass eine hohe Nachfrage besteht bei geringer Lieferbarkeit (es ist ja nicht so, dass es keine HD5xxx Karten am Markt gibt.) ;)
 
Zuletzt bearbeitet:
Doch, der Frametimeversatz ist immer vorhanden 100FPS sind dann ca. 60-70FPS, also sind angezeigte 100FPS auch Fake FPS. Ob dus merkst oder nicht, spielt keine Rolle, das angezeigte entspricht nie der realen (gefühlten) FPS. Aber das Thema ist bald vom Tisch, Hydra wird hoffentlich alles plattenwalzen was sich CF und SLI schimpft. Also erstmal Hydra Tests abwarten, bis dahin sollte man Karten wie HD 5950/ 5970 links liegen lassen...
 
Von Hydra will ich erst einmal etwas sehen. Bei den aktuellen Informationen, die ich so gefunden habe, klingt das nach ziemlich viel Blödsinn. Das meiste reines Marketing-Gesülze.

Auf der einen Seite ist Hydra besser als SLI/Crossfire, weil es Hardware, aber nicht Software ist; auf der anderen Seite fängt es aber OpenGL und DirectX-Kommandos ab, was wiederum nur per Software möglich ist.
Und dann sollen die Kommandos wie auf wundersame weise gleichmäßig auf die GPUs verteilt werden, was - zumindest so wie es aktuell verbreitet wird - auch ziemlicher Blödsinn ist, weil man die Befehle nicht einfach irgendwie verteilen kann und am Ende kommt dann das fertige Bild heraus. Die Befehle sind halt nicht unabhängig voneinander.

Mir fehlen da zum einen detaillierte Infos wie das wirklich funktionieren soll und dann auch mal konkrete Messungen und Analysen.

Ich hoffe wirklich, dass an dem Chip was dran ist, denn ich kann mir schon vorstellen, dass SLI und Crossfire noch einiges an Luft haben; insbesondere was die Mikroruckler betrifft. Aber ich wüsste nicht, dass man da bis jetzt mal was gesehen hat. Gibt es denn wenigstens mal einen Prototypen oder sowas?
Bei Larrabee hat man zumindest einige Simulationen durchgeführt, die hoffen lassen, dass das Ding gut skaliert. Auch noch nichts sonderlich handfestes, aber schon mehr als ich von Hydra kenne.
 
Zurück
Oben