ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
das gerücht kann sich schon bestätigen..dirt2 war ja auch sowas ähnliches.
 
Hmmm, aber sind den Rollenspiele wirklich so Massentauglich?
Weil nen Rennspiel zockt ja eigentlich fast jeder Spieler mal, aber das RollenGenre muss man mögen.

Oder seh ich das falsch?
 
siehts du richtig aber wow ist ja auch so ein knüller :D zwar ist das game nicht wow aber einrollenspiel ist es ja schonmal. :D
 
Naja, aber du kannst kein MMORPG mit einem Rollenspiel vergleichen.

WoW KANN als Rollenspiel gespielt werden, allerdings wird es das in 95% der Fälle nicht.
(Ich z.B auch nicht ganz ehrlich ;) )

Können ja nen Monat Freetime für ein beliebiges MMORPG mit beilegen^^
(nicht ernst gemeint ;) , fand Dirt 2 Perfekt. Gutes Spiel, dass die neuen Features Sinnvoll eingesetzt hat. )

Aber ganz ehrlich: Ich möchte auch kein Spiel aussuchen müssen ;)
 
Und wenn es ein Rollenspiel sein soll, dann brauchst du entweder eine speziell beschnittene Version oder du kannst schon keine FSK16-Version nehmen.
(Darf man natürlich schon, aber welcher Hersteller würde das wirklich wollen. Damit macht man sich nur unbeliebt... Nagut, NVidia würde ichs zutrauen :D)

Wie gesagt: Rennspiele sind eigentlich immer eine ganz gut Wahl.
Ich zocke grade nochmal Dirt 1 auf Schwer durch und es macht definitiv Laune.

Grüße vom:
Jokener
 
also um nochmal die gerüchteküche bezüglich hd6000 anzuheizen:

Shader Cluster aus 64 Shader-Einheiten (nur mehr 4D statt 5D)
Rastereinheit der Northern Island
25% mehr Textureinheiten pro Shader
vorstellungstermin: oktober 2010
erste karten im handel: november 2010

gerüchte vers. 1: ati wird ausnahmsweise den anfang mit den kleineren ablegern machen.
https://www.computerbase.de/forum/t...-geruechtekueche.633836/page-247#post-8331768
mögliche gründe: experimentieren mit der neuen architektur anhand weniger komplexer chips
oder
direkter "konter" auf nvidias kleine g400 ableger, die eigentlich schon hätten gegen die kleinen hd5k antreten sollen... wobei ersteres imho naheligender wäre.

gerüchte vers. 2: ati wird wie eh und je mit den topmodellen anfangen.
 
wann änderst du den namen? weil die 5k und 400er sind draußen (vom GF zwar noch nicht der vollausbau aber egal) zumindest das 5000er weg ;)
 
Es soll ja nicht nur eine Umstellung von 5D auf 4D Shader geben.
Auch die Anzahl wird von 320 5D Steamprozessoren auf 480 4D ansteigen, was ja schon 50% mehr Shaderleistung bedeutet. Dazu noch die Verbesserungen mit einer höheren Effizienz sowie einen neuen Core mit deutlich stärkeren Tesselation. (Bei der HD6870 gesehen)

Auch soll ein 384Bit Speicherinterface verwendet werden, was indirekt darauf schließen lässt, das ATI eben mit einem 256 Bit Speicherinterface, die Karte zu sehr beschneiden würde.

Ich bin sowas von gespannt auf den Oktober. :freaky:
Ich glaube kaum, das ATI ihre Karten als 6000er Serie benennen würde, wenn es sich nur um einen leichten Refresh handeln würde.
Dazu hätten sie, wie bei der 4000er Serie, einfach eine HD5890 herausbringen können.

Nein, Souther Island wird eine neue Generation sein mit eben deutlich höheren Performance !

Auch soll ATI jetzt zusätzlich Geld in die Softwareindustrie investieren, um Spielemachern für die neuen Features der HD6000er zu begeistern, genauso wie es Nvidia mit ihrem PhysX handhaben. ;)
Was bedeutet, das noch mehr Performance umgesetzt werden kann und nicht wie z.B. das 3D-Now bei AMD-CPUs verkümmert, weil eben niemand es unterstützt hat.

ATI konzentriert sich jetzt voll und ganz auf die Spielperformance, was ja der eigentliche Sinn von einer Konsumentengrafikkarte ist.
NVIDIA wird es mit ihrem Cuda,PhysX-Anhang deutlich schwerer haben. Denke ich...
 
Zuletzt bearbeitet:
50 % mehrleistung sind nicht drin.20 % sind da realer ;)

aber lübke wann änderst du den gerüchteküchen namen weil hier wird ja jezz über die 6000er spekuliert ;)
 
Lübke schrieb:
wie kommst du denn auf 50 % mehrleistung aufgrund der zusätzlichen shader?
320 * 5 = 1.600
480 * 4 = 1.920
das ist nach meiner rechnung eine steigerung um 20% ;)

Weil es eben nun 480 statt 320 sind. Eine Steigerung um 160 gegenüber 320.
Die 4D haben keinen Nachteil gegenüber 5D, da 5D so gut wie nie ausgenutzt wird.
Eher im Gegenteil.
Die Effizienz wird deutlich besser sein und somit auch die Leistung !
Das 50% mehr Shaderleistung nicht gleich 50% Spieleleistung entspricht ist zwar klar, aber dies gilt eben noch für 5D-Shader.

Wie es sich hier verhält, ist noch offen. Aber es kann nur besser werden als schlechter.
 
die effiziens wird besser, je weniger teilshader vorhanden sind. 1d hat die höchste effiziens (100%). die leistung pro shader steigt aber mit der zahl der teilshader, weil ein 1d-shader 5 gleiche berechnungen hintereinander durchfürhen muss, wärend ein 5d-shader die parallel abarbeiten kann. der 4d-shader bräuchte immerhin zwei durchläufe für die 5 gleichen berechnungen.
 
Die Berechnungen müssten aber alle gleich sein, um 100% Leistung der 5D-Shader zu bekommen !
In der Praxis ist das aber so gut wie nie vorhanden. Die HD5000 hat eine theoretische Rechenleistung von 2,7 GFlops während die GTX480 mit 1,36 GFlops die HD5000 aber mit 20% schnellerer Leistung schlägt.

Die HD5000er kann somit ihre 5D-Shader nicht ausnutzen, da es kaum zu dieser Parallelisierung der Berechnungen kommt.
Da werden vielleicht 2 gleich sein. Ab 3D dann wird es immer ineffizienter.
Sprich, 4D-Shader haben eine höhere Effizienz und können somit locker die 5D-Shader kompensieren.
Daher denke ich, das es keinen Leistungsverlust gibt, wenn von 5D auf 4D Shader umgestellt wird. Der Verbrauch aber, wegen weniger Transistoren, zurück geht.

Nur das eben durch die 50% mehr 4D Shader gegenüber den 5D Shader, die Shaderleistung deutlich ansteigt.
In der Theorie natürlich nicht, weil es theoretisch ein Verlußt ist von 5D auf 4D.
Aber in der Praxis, ist es kein Verlußt.
 
Zuletzt bearbeitet:
eine 480er ist im schnitt 10 % schneller. da sie eben in anderen bereichen mehr draufgepackt hat.

derartige performancessprünge sind halt nicht mehr drin da 40nm.Im grunde genommen ist bei mit ner GTX480er im 40nm bereich schluss.


man kann nicht so einen sprung erwarten wie von der 4870 zu 5870 weil das war -15nm also sprich von 55nm auf 40 ...
 
Zuletzt bearbeitet:
Die Berechnungen müssten aber alle gleich sein, um 100% Leistung der 5D-Shader zu bekommen !

das ist ohnehin vorraussetzung. ein 5d-shader, der mit 80% arbeitet, ist so schnell wie ein 4d-shader oder 4 1d-shader bei 100%. wobei 100% defakto wohl nur bei 1d-shader vorkommen, da 4 oder 5 exakt gleich lange, gleiche berechnungen durch die bank wohl nicht realistisch sind. rgba-berechnungen sind aber recht häufig, weshalb ein 4d-shader wohl eine höhere auslastung als ein 5d-shader erzielen kann. von daher wird die reale mehrleistung sicher auch die 20% übersteigen. deine rechnung, einfach die leistung von 4d und 5d shader gleichzusetzen, geht aber definitiv ebenso wenig auf, wie 1d und 5d shader gleichzusetzen. der 5d-shader bietet 20% mehr rechenkapazität als der 4d-shader, kann diese aber real nicht voll ausnutzen.



aber mal was ganz anderes: mal ne kleine umfrage.
soll ich den eingangspost mal editieren und die gesammelten gerüchte zur hd6k auflisten? sprich den thread mal wieder etwas zu aktuallisieren?
oder soll ich ne neue gerüchteküche eröffnen?
 
Zuletzt bearbeitet:
Das hat doch nichts mit dem Fertigungsprozess zu tun.
Man kann nicht einfach sagen, das bei 40nm keine Leistungssprünge mehr drin sind.
Natürlich hat ein kleinerer Fertigungsprozess immer nur Vorteile, indem man nun mehr Transistoren mit weniger Verbrauch unter bringen kann.

Aber stell dir mal vor, die 2,7 GFlops des RV870, könnte man nun deutlich besser umsetzen. Dazu benötigst man keinen kleineren Fertigungsprozess !
Man nimmt einfach die Architektur und optimiert sie und holt somit deutlich mehr raus.

Wie groß war den nun der Performancegewinn zwischen HD3870 und HD4870 ?
Beide in 55nm gefertigt, aber trotzdem war die HD4870 ca. doppelt so schnell.
 
ja aber du kannst die 3000 und 4000 nicht mit der 6000er vergleichen...
 
so im Zuge der umbenennung möchte ich auch mal den eingangspost überarbeiten. da sollen künftig alle als wahrscheinlich geltenden gerüchte gesammelt werden, damit interessierte leser nicht immer die gesamte diskussion durchlesen müssen und die mutmaßlichen eckdaten auf einem blick haben.

ich bitte um konstrucktive gestaltungsvorschläge, wie man diese gerüchtesammlung idealerweise gestalten könnte. :)

für den thread dachte ich dann als titel "GPU-Gerüchteküche", damit der name nicht dauernd geändert werden muss.
bin aber für andere vorschläge offen. :)
 
okay finde ich super. gogo ;)


@pickebuh weil man aus der 3k serie nicht viel gemacht wurde...

laut der roadmap erst 2011 oder ?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben