News GTX 480: Zur CeBIT gezeigt, verfügbar ab April?

@ silent-efficiency

Ein breites Design ist tendenziell effizienter, da viele ALUs mit niedrigem Takt meist (deutlich) weniger Spannung brauchen als weniger hochtaktende ALUs.
 
y33H@ schrieb:
Ein breites Design ist tendenziell effizienter, da viele ALUs mit niedrigem Takt meist (deutlich) weniger Spannung brauchen als weniger hochtaktende ALUs.

1. breiteres Design ist erst einmal schwerer auszulasten, da man alles immer schön verteilen muss, was doch nicht immer so gut gelingt.
siehe auch: https://www.computerbase.de/2009-12...abschnitt_effizienztest_hd_5870_gegen_hd_4890

2. "Niedrieger Takt" ist relativ. Ein Fertigungsprozess hat irgendwo sein Optimum was Taktrate bei gewisser Spannung angeht. Und wenn ich dieses Optimum nicht erreichen kann, weil ich zu breit gebaut habe und damit schon alle Thermischen Schranken überschreite, dann muss ich unter dem optimum takten. Und GTX 280 taktet mit vergleichsweise kleinen 1296 MHz die Shader.

Die im Vergleich dazu sehr effiziente GeForce 9600 GT taktet beim 65nm-Fertigungsprozess die Shader mit 1625 MHz
 
Was ist an einer 9600gt effizienter? Die FPS pro Watt sind da auch nicht besser als beispielsweise bei ner GTX285
 
@silent-efficiency: Ich dachte Ati könnte man da nicht mit Nvidia vergleichen, da Ati 5D Shader nutzt und Nvidia hingegen 1D Shader, und es einfacher ist 1D Shader voll auszulasten als 5D Shader Einheiten.
 
@Schaffe89
GTX 285 taktet die Shader mit 1476 MHz, um die geht es nicht, sondern um die GTX 280, die auf 1296 MHz "gedrosselt" läuft.

@[grueni]
man kann sie nicht quantitativ vergleichen. Rein Qualitativ ist aber die Aussage in beiden Fällen zutreffend, dass mit zunehmender Verbreiterung auch der Sheduler zunehmend mehr verteilen muss und damit das ganze immer schwieriger wird. Wobei Nvidia das Problem so löst, dass erst einmal einen Sheduler haben, der grob auf die Shadercluster verteilt, und dann gibt es noch mal kleinere Sheduler in jedem Schadercluster...
 
Zuletzt bearbeitet:
Das mit den 1d und 5d Shadern ist ein bisschen ne glaubenssache. Grundsätzlich ist es einfacher 500 1d Shader auszulasten als 100 5d Shader. Das liegt an 2 Grundproblemen der 5d Shader
1. Du musst die Aufgaben die reinkommen sortieren
2. Du benötigst zur auslastung 5 Identische aufgaben zur selben zeit
1d Shader hingegen fütterst du einfach vom sheduler aus sobald eienr schreit "gib mir"
Das sorgt dafür, das NV karten ihre Ressourcen im allgemeinen besser ausschöpfen können (oder zumindest bisher konnten) nachteil der 1d Architektur liegt eher bei dem höheren Aufwand in der herstellung (*infos sind grob und ohne gewähr auf ihre vollständigkeit)

Jetzt kommt aber das große ABER und das geheimniss der 5d Shader
AA HAT eine vielzahl an identischen aufgaben zu folge, warum AMD SCHEINBAR weniger einbricht unter extrem hohen einstellungen. allerdings ist von der logik der grund MEINER MEINUNG nach nämlich ABSOLUT NICHT WÜNSCHENSWERT, da für diese einstellungen ressourcen genutzt werden, die vorher nicht GENUTZT WERDEN KONNTEN! (was der grund ist warum ich bei menschen die gelegendlich spielen und den rechner über jahre behalten wollen nv verbaue. meiner erfahrung nach erreichen diese 1- 2 jahre früher den punkt an denen sie unspielbar werden. Natürlich ein problem, was man nciht hat, wenn man sich jedes jahr, oder alle 2 jahre ne neue karte holt ;) )

Meiner meinung nach ist NV aktuell NOCH mit den 1d Shadern deutlich besser aufgestallt was das angeht. und ich sehr auch für die nächsten jahre keine notwendigkeit über 2d Shader hinaus zu gehen.
 
Okay danke für die Erklärungen ;)
Verhält sich also eigentlich mit einem Singlecore und einem Multicore Prozessor, im groben zumindest :freaky:
 
Woher bekommen die eigentlich ihre ganzen Grüchte her?^^
 
Kontakte zu Leuten, die Nahe bei AMD und NV stehen.
 
Sollten sich die Grüchte bestätigen, können die Leute die immo sagen, dass sie noch auf Thermi warten auch gleich noch auf die HD6XXX warten^^
Selbst PCGH könnte sich vorstellen, dass die Thermi gegen ein Refresh antreten muss...
 
@ silent-efficiency

Das doppelt so breite Design der HD5870 runter zu brechen auf HD4890-Takt, zumal die Architekturen nicht vergleichbar sind [ü.a. müssen bei Cypress die ALUs die Textur-Interpolation schultern, bei RV770 machen das die TMUs], ist nicht so der Renner.

Und 96GT mit GTX280 zu vergleichen bzw. G92 mit GT200 und erstere als effizienter zu bezeichnen, halte ich für Unfug. Die GTX280 leistet grob das 2,5- bis 3-fache an Fps und schluckt dabei nur gut 50% mehr Watt. Welche also ist effizienter, hmmm?
Jocotty schrieb:
Selbst PCGH könnte sich vorstellen, dass die Thermi gegen ein Refresh antreten muss.
Link? :)
 
da ich gerade sowieso auf einem Bahnhof sitze bei -3 Grad und noch 30 Minuten Zeit bis der Zug kommt, such ich mal den Artikel aus der neuesten PCGH:

PCGH 03/2010 Seite 28 schrieb:
Fazit:
Auf dem Papier klingen die Verbesserungen, die Nvidia im GF100 realisiert hat, sinnvoll.
Die Beschleunigung des 8x-MSAA-Modus ist überfällig, die Parallelisierung der Raster- und Triangle-Setups hingegen eine willkommene Überraschung, die irect X 11 mit Tesslationsehr wahrscheinlich Flügel verleihen wird. Bisher fehlen Daten zu Preis, Verfügbarkeit, Bildqualität, Leistungsaufnahme, Lautstärke und der endgültigen Spieleleistung werden über den Erfolg gegen AMDs HD5870 oder deren Refreshentscheiden.
 
y33H@ schrieb:
Und 96GT mit GTX280 zu vergleichen bzw. G92)
GeForce 9600 GT ist ein G94. Wie kommst du auf G92?

Und man sollte schon den Stromverbrauch der GPU messen, nicht des Systems, wenn man das ganze Prozentuall gesehen betrachten will.

Was die Performance angeht, so leistet die GeForce 9600 fast 50 Prozent von dem was eine GTX280 leistet.
Rating - 1680x1050 4xAA/16xAF
GTX 280 = 100 Prozent
9600GT = 45 Prozent
und das mit Hardcoreeinstellungen für die die GTX280 optimiert wurde, nicht jedoch der G94.
Immer diese Leute, die High-End-Grafikkarten in den Himmel jubeln wollen, anstatt sich mal mit dem Thema auseinander zu setzen, 3xFache Leistung bla bla....
 
Zuletzt bearbeitet:
Und was sind 45% der Leistung einer GTX280, wenn man die 96GT als Basis nimmt? Richtig, +120% (Faktor 2,2). Nun noch der Faktor, dass sich die Kluft mit höheren Settings oder großen Texturen massiv verbreitert und du hast die 2,5- bis 3-fache Leistung locker drin.
silent-efficiency schrieb:
Und man sollte schon den Stromverbrauch der GPU messen, nicht des Systems, wenn man das ganze Prozentuall gesehen betrachten will.
Richtig - allerdings vergleichen wir auch die Fps auf Basis eines kompletten Systems, isoliert betrachtet ist die GTX280 prozentual noch schneller und verbraucht prozentual auch noch mehr.

Und ja, sorry - 96GT ist G94 (technisch aber identisch zu G92, nur andere Anzahl an Units).
 
Wenn interessieren hier höhere Settings in unserem Zusammenhang? Wir reden hier über mehr shader vs. mehr Takt.

Die GTX280 wird in höheren Settings besser, weil sie schlicht darauf ausgelegt worden ist. Der G94 braucht nicht stenzil-Z/hidden-Z und co. so Effizienz zu betreiben, weil der nicht für hohe Auflösungen mit AA und AF bis zum Anschlag bestimmt ist. Und ich habe schon 1680er-Auflösung mit 4xAA und 16xAF genommen.

Wie gesagt, in letzter Zeit bist du echt nur noch dabei einem vermeintliche Fakten an den Kopf zu werfen, ob die eine Relevanz haben oder nicht interessiert dich gar nicht mehr.

GeForce GTX280- Verbrauch = 226 W 100 Prozent Verbrauch bei 100 Prozent Leistung


GeForce 9600 GT- Verbrauch = 69 W
30 Prozent Verbrauch bei 45 Prozent Leistung

(Und das die Arbeit auf mehr Shader schwieriger zu verteilen ist, als auf wenige, ist eigentlich auch relativ leicht ersichtlich, völlig unabhängig davon, ob der HD5000-Vergleich in allen Punkten sauber war oder nicht.)
 
Zuletzt bearbeitet:
*Klugschei0-Modus an*

Furmark lastet fast nur die ALUs aus, wovon die GTX280 im Verhältnis zu den restlichen Einheiten deutlich mehr hat als die 96GT (TMU/ALUs ist 1/3 statt 1/2). In der Spielepraxis liegt aber keine so hohe ALU-Last an, weswegen die Differenz zwischen GTX280 und 96GT geringer ist.

*Klugschei0-Modus aus*

silent-efficiency schrieb:
In letzter Zeit bist du echt nur noch dabei einem vermeintliche Fakten an den Kopf zu werfen, ob die eine Relevanz haben oder nicht interessiert dich gar nicht mehr.
Hast wohl recht :(
 
Neo_Xsendra schrieb:
was der grund ist warum ich bei menschen die gelegendlich spielen und den rechner über jahre behalten wollen nv verbaue. meiner erfahrung nach erreichen diese 1- 2 jahre früher den punkt an denen sie unspielbar werden. Natürlich ein problem, was man nciht hat, wenn man sich jedes jahr, oder alle 2 jahre ne neue karte holt ;) )

Meiner meinung nach ist NV aktuell NOCH mit den 1d Shadern deutlich besser aufgestallt was das angeht. und ich sehr auch für die nächsten jahre keine notwendigkeit über 2d Shader hinaus zu gehen.

WATTT?!!?

Du empfiehlst Leuten NVIDIA, weil die 2 Jahre eher die Hufe heben als ne ATI-Karte?

Hab ich das so richtig verstanden?

Zudem wird es keine 2D Shader geben, entweder du rechnest alles stur nacheinander ab (NVIDIA) oder du nimmst die xyzwt-Werte, die bei Grafikberechnungen vorkommen.

Alles andere macht keinen Sinn.

Hier wird das auf anandtech schön erklärt.


@silent-efficiency: Seh ich genauso, das weniger Shader mit mehr Takt sinnvoller sind als anders rum, weswegen AMD das bei der 5800M sicher auch so gemacht hat.
 
Zuletzt bearbeitet:
würd ich auch tun, wenn ich an jeder Karte was verdiene, ich empfehl auch den Kunden das Produkt was ihren Anforderungen entspricht und ich die grösste Marge hab.
 
Zurück
Oben