ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Schaffe89 schrieb:
Mui.. wer braucht schon tesselationleistung.
Bei der derzeitigen Implementation/Verwendung ist das eh fürn Hund.

Unyu schrieb:
Vor einigen Monaten hieß es noch, Tesselation ist die billige Lösung um endlich aufwändigere Geometrie zu bekommen.

Was aber eben genau so zur Zeit nicht implementiert wird von den Software Entwicklern, wie Schaeffe richtig bemängelt - dies wird allerdings kommen - auch wenn Nvidia meint Low-End Modelle benötigen kein DX11. Spätestens wenn Netbook Ontarios und Notebook/Desktop Llanos mit DX11 Beschleunigung in den APUs auf dem Markt sind Anfang 2011.
 
@Schaffe89: na die einstellug ist ja toll. kann man auch beliebig variieren:
Mui.. wer braucht schon dx11.
Bei der derzeitigen Implementation/Verwendung ist das eh fürn Hund.
Mui.. wer braucht schon open cl.
Bei der derzeitigen Implementation/Verwendung ist das eh fürn Hund.
Mui.. wer braucht schon mehr als zwei cpu-kerne.
Bei der derzeitigen Implementation/Verwendung ist das eh fürn Hund.

merkste was? ;)

es hat auch schon mal wer behauptet, dass man niemals mehr als 512 kb ram brauchen würde :D
das war übrigends bill gates...

glaub mir, ati baut das sicher nicht ein, weil die unbedingt den chip vergrößern und den verbrauch steigern wollen, die haben sich wohl was dabei gedacht ;)
 
Zuletzt bearbeitet:
Lübke schrieb:
es hat auch schon mal wer behauptet, dass man niemals mehr als 512 kb ram brauchen würde :D
das war übrigends bill gates...

Wenn man schon Aussagen anderer Leute bringt, dann bitte richtig!

Der gute Mann hat gesagt, das niemand mehr als 640KB RAM braucht. Und dabei ging es um die 640KB Grenze aus uralt-DOS-Zeiten. Die "weiteren" 384 KB wurden fuer ROM und MM I/O resserviert.
 
4D-Shader?

Denke ich nicht. SI sollte ja die alten Shader beinhalten + neues Umfeld.
Erst mit NI sollten die Shader aktualisiert werden.

Vielleicht hat ATI gemerkt, dass die Shader nicht so der wahre Bringer ist.
 
Ich schätze das sich da NV und ATi mit den nächsten generationen annähern ... angeblich soll nv ja auch auf 2d shader umsteigen, mit dem übernächsten chip (also nicht der fermi 2 28nm)
 
2d-shader finde ich aber etwas inkonsequent. dann können sie auch gleich bei 1d-shadern bleiben. diese sind immerhin die effizienteste lösung, da 100% auslastung. wenn dann müssen schon berechnungen wie rgba komplett durch einen multi-d shader passen, und das wäre dann min 4d.
 
Würdest du auch eine Single Core CPU die dauerhaft auf 100% Auslastung ihre Arbeit verrichtet für effizienter halten als einen Dual-Core oder Quad-Core der nicht immer auf 100% Anschlag läuft ;)

Die Frage ist doch vielmehr wie effizient das ganze als Paket funktioniert.
 
ja sie ist effizienter. 100% ist immer effizienter als 70%. wenn zwei singelcore cpus mit 100% laufen, leisten sie mehr als eine dualcore cpu mit gleichem kern und takt mit 70%. sollte wohl logisch sein oder?

Die Frage ist doch vielmehr wie effizient das ganze als Paket funktioniert.
das "gesamtpaket" besteht aber nicht nur aus shadern...
 
du darfst dir nicht die leistungsaufnahme angucken, sondern die Leistung/Watt. Das ist Effizienz, das andere ist nur eine Auslastung, ein theoretischer Wert der praktisch nichts aussagt.

Und genau dort sind die Quad Cores mittlerweile überelgen, Effizienztechnisch ist auch ein RV770 dem Thermi deutlich überlegen.

gruß
 
aber nicht dem g92 und der hat auch 1d-shader... r600 (radeon 2900xt) hat hingegen 5d-shader. du kannst nicht einfach ati und nvidia vergleichen, das sind komplett andere architekturen. hier gehts nur um den grundsätzlichen vergleich von shaderarchitekturen. da dürft ihr ruhig ma ati vs nvidia vergessen...
 
naja, 5D vs 1D ist AMD vs Nvidia, beide vertreten eine andere Philosophie, und momentan fährt AMD damit effizienter, wie kann man dann beide nicht ins spiel bringen?

Der R600 war der erste Versuch mit 5d Shadern, der musste verbessert werden, und seit dem RV670 fährt man mit 5D shadern effektiver im Sinne der Leistungsaufnahme.


gruß
 
Lübke schrieb:
wenn zwei singelcore cpus mit 100% laufen, leisten sie mehr als eine dualcore cpu mit gleichem kern und takt mit 70%. sollte wohl logisch sein oder?
Und was ist wenn der eine 100% und der andere 40 % Auslastung hat?

Und wenn wir jetzt nicht vergleichen sollen, frage ich mich was du mit der Aussage gemacht hast "100% 1d Shader sind effizienter" - Effizienter als was?

Natürlich kann man das nicht vergleichen - das ist ja genau das was ich dir hier sage:
Die Frage ist doch vielmehr wie effizient das ganze als Paket funktioniert.
 
@Schinzie:
und seit dem RV670 fährt man mit 5D shadern effektiver im Sinne der Leistungsaufnahme.
3870 last: 110 watt
8800gt last: 110 watt
die 8800gt ist aber deutlich schneller. also auch hier 1d effizienter.
und rv770 vs g200 gleiches spiel
bei der hd5k ist erstmalig ati mit ihrem 5d chip effizienter als nvidia mit ihrem 1d chip. aber das ist der architektur als sochem und nicht dem shadertyp geschuldet.

@Complication: du sollst vergleichbares vergleichen, nicht ati mit nvidia. es geht hier grade nur um
wechsel von 5d auf 4d und
von 1d auf 2d

da hilft ati vs nvidia absolut nicht weiter.
 
die 3870 war doch deutlich sparsamer als die 8800gt, oder hab ich da was falsches im kopf?


gruß
 
nein sie war im idle deutlich sparsamer. 8800gt hatte noch keinen effektiven 2d-modus. aber unter last war die 8800gt sogar minimal sparsamer.

aber nochmal: das ist äpfel mit birnen vergleichen. wenn ihr multi-d versionen vergleichen wollt, dann bitte ohne komplette chips oder gar hersteller zu vergleichen. denn da gibt es massig unterschiede, die alle auswirkungen auf die effiziens haben. das sagt über 1d vs 2d vs 4d vs 5d absolut gar nichts aus.
 
Lübke schrieb:
@Complication: du sollst vergleichbares vergleichen, nicht ati mit nvidia.
Wo habe ich das denn getan?

Wenn du von Shader Effizienz sprichst, habe ich den Eindruck du vergleichst das mit einem Lagerraum - je weniger m² ungenutzt Miete kosten desto effizienter ist es.

Aber so kannst du ja nicht die Effizienz bei Grafikkarten oder anderen elektronischen Geräten beurteilen. Du würdest auch ein Netzteil nicht dauerhaft unter 100% Last betreiben wollen. Dort ist die beste Effizienz ja auch bei 50-80% Last. Es ist nicht effizienter nur weil man oben am Limit arbeitet und alle Ressourcen bis Oberkante Unterlippe belastet.

Wenn 2D Shader 170% der Leistung bringen eines 1D Shader dafür aber nur 20% mehr Transistoren benötigen so ist das (hypothetische) 2D Design effizienter.
 
das sagt über 1d vs 2d vs 4d vs 5d absolut gar nichts aus.

Weil mich das gerade so anspringt: kann man auch ein 3D-Shader Verfahren verwenden?
 
klar kann man, stellt sich nur die frage nach dem sinn ;)

also imho sind die sinnvollsten varianten:
4d: weil rgba sehr häufig vorkommt und multi-d shader billiger und kompakter zu fertigen sind als die entsprechende anzahl 1d-shader
1d: weil sie vollkommen unabhängig von den berechnungen immer 100% leisten
 
Bei der Effizienzbetrachtung werden hier wie üblich nur die Shader verglichen. Als Grundlage des Vergleichs wird jedoch das Gesamtpaket genommen. Man kann nicht ernsthaft das 8xMSAA Diagramm hernehmen, auf die Leistungsaufnahme geblickt und dann behaupten welche Shader besser sind.
Getrennte Betrachtungen sind nötig. Auch bei der Diegröße, was soll der Unfug von kleinen Dies zu schreiben, während man die gesamte GPU, samt Tessellatoren und TMUs und und und hernimmt.
80 TMUs, die nicht voll ausgelastet werden können, sind nicht gerade ideal.
Die GPU ist zwar ein Gesamtpaket, aber so macht die Diskussion keinen Sinn.

Anders würde es sinniger werden: Design A ist besser als Design B, weil..... Jetzt die ganze Geschichte wegen Benchxy ist so superttoll, 8xMSAA Pflicht und ....
 
Wir wäre es, wenn man beides auf einem Chip kombiniert? 4D oder 5D für die Berechnungen, die von solcher Architektur eher profitieren und 1D für die Sache, denen solche Shader eher liegen. Bei Engpässen werden dann halt die jeweiligen "anderen" verwendet, wo es dann halt nicht so effizient läuft.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben