ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Da die 5D-Shader wohl schwer zu programmieren bzw auszulasten sind (hab ich gehört^^) scheint der Sprung auf 4D-Shader nachvollziehbar. Die 5D-Shader sind ja komplexer zu programmieren als 1D-Shader
Ich könnte mir vorstellen, dass so eine höhere Auslastung der Shader-Cluster erreicht wird was somit auch die Effizienz erhöht.

Nur eine Vermutung meinerseits.
 
Zuletzt bearbeitet:
ati hatte schon mal 4d-shader. imho eigentlich auch logischer und effizienter als 5d (da grafikberechnungen zum großteil aus rgba bestehen). glaub mit r600 ist man auf 5d umgestiegen.

am effektivsten, aber auch teuersten und größten ist 1d (siehe nvidia). die auslastung liegt meist bei 100%, da keine abhängigkeiten der shader untereinander besteht. bei mehr-d verfahren besteht eine abhängigkeit, die die auslastung reduziert, aber die leistung je mulit-d shader gegenüber 1d-shader erhöht.

imho wäre für grafikkarten 4d die sinnvollste lösung, da sie kleiner und billiger herzustellen sind, wie eine vergleichbar leistungsfähige anzahl 1d-shader und die auslastung höher sein dürfte als bei 5d-shader.
wäre also ein guter kompromiss aus beiden architekturen.
 
Weiß eigentlich irgendwer, was eigentlich gegen 2D oder 3D Shader spricht? Worin liegt der Grund, dass man nur entweder 1D oder 4/5D Shader verwendet?
 
ich hab ja schon die rgba-berechnungen erwähnt (rot-gelb-blau-alpha). es wäre iwie inkonsequent, diese nur teilweise durch einen shader berechnen zu lassen. entweder wird jede farbe separat berechnet (1d), oder alle simultan in einem shader (4/5d). klar ginge auch 2d oder 3d, aber welchen sinn sollte das haben?
 
Ganz einfach. Je höher die gruppierung, umso dichter kannst du packen.

1d shader besitzen 100% effizienz und die geringste packdichte

2d shader besitzen theoretisch nur noch 50% effizienz, was in der theoretisch eine durchschnittliche auslastung von 75% bedeutet

3d shader besitzen theoretisch nur noch 33% effizienz, was in der theoretisch eine durchschnittliche auslastung von 61% bedeutet

4d shader besitzen theoretisch nur noch 25% effizienz, was in der theoretisch eine durchschnittliche auslastung von 52% bedeutet

5d shader besitzen theoretisch nur noch 20% effizienz, was in der theoretisch eine durchschnittliche auslastung von 46% bedeutet

Praktisch gesehen siehts da etwas anders aus, da doppelte schritte die häufigste variante sind und es eben nicht wie in der theorie gleichmäßig verteilt ist. da siet die verteilung eher aus:
100
88
69
59
51
sind aber auch nur richtwerte. gleichzeitig sieht man aber an den chipgrößen von nv und ati was das ganze für die packdichte bedeutet. der schritt von 5 auf 4 d shader ist also von der effizienz gesehen wirklich gut, wird aber die packdichte verringern. andererseits würde nv der schritt auf 2d shader beim aktuellen stand der technik ganz weit nach vorn bringen beim aktuellen stand der technik. wobei mit jedem jahr das vergeht die 4d technik bzw 5d technil effizienter wird, aufgrund der sich ändernden datenstrucktur.

ich hoffe ich hab jetzt nciht zu sehr an deiner frage vorbei geantwortet XD

EDIT: @lübke
in der 5 bzw 4d technik sind leider nur gleiche schritte in einem shader möglich. so weit ich weis ist rgba über einen shader so nciht möglich

EDIT2: wobei es natürlich sein kann, das sie die technik ändern und nur die namensgebung beibehalten -.^
 
Zuletzt bearbeitet:
Zitat von Lübke

aber welchen sinn sollte das haben?

Nun, das wollte ich ja wissen.^^

Zitat von Neo_Xsandra

ich hoffe ich hab jetzt nciht zu sehr an deiner frage vorbei geantwortet XD

Nein, du hast es meiner Ansicht nach durchaus schlüssig dargelegt, danke sehr. :)
 
langsam verdichten sich auch die gerüchte um den kommenden southern island. hier mal eine grafik, die john carmack (leider ohne quellenangabe) gepostet hat:
southernislandsroadmap.jpg


demnach würden ausnahmsweise die kleinen ableger der chipreihe mal den anfang machen und nvidias noch immer nicht existenter mittel- und unterklasse bereits im vorweihnachtsgeschäft das leben schwer machen. ob es wirklich so kommt, bezweifle ich eigentlich immernoch...

zumindest die gerüchte vorstellung im oktober, launch im november verdichten sich zusehens. welche karten allerdings vorgestellt (komplettes lineup?) und welche dann tatsächlich noch dieses jahr gelauncht werden, bleibt äußerst spekulativ...
 
Zuletzt bearbeitet:
Lübke schrieb:
@Zwirbelkatz: wieso nie? die g200 waren sparsamer als die hd4k trotz deutlich größerem si. bei gf100 gegen cypress ist es andersrum, aber bei 1:1 würde ich das nicht auf das si zurückführen ;)
ich bin mir sicher, dass die hd6k wieder sparsam wird.

Stimmt, da hast du wieder Recht. Vieles empfindet man eben subjektiv als besser oder schlechter, als es faktisch ist. Wenn man jetzt jedoch die HD5770 mit der GTX260 vergleichen würde, dann ist der Stromverbrauch wiederrum deutlich besser.
Wobei dort natürlich 55nm mit 40nm verglichen wird. Ich hoffe halt bloß, dass die HD6000 weiter am Thema der Sparsamkeit arbeitet. Denn Leistung bieten die HD5970 und GTX480 derzeit eigentlich genug, bloß tun sie das mit exorbitantem Verbrauch.

Zu dem "Barts" aus dem Schaubild:
Ich hätte dann mal gerne eine Barts Karte in low Profile mit der Leistung einer HD5770 und ca. 60 Watt Lastverbrauch :) Kannst du da was regeln? ;)
 
die hd5k kann sich in sachen verbrauch mit allem messen lassen, die sind einfach super sparsam geworden. auf der anderen seite vergleich mal 4890 mit gtx460 ;)
hier ist zwar nur die langsamere (und sparsamere) 4870 im vergleich, aber auch die braucht mehr:
https://www.computerbase.de/2010-07/test-nvidia-geforce-gtx-460/24/#abschnitt_leistungsaufnahme
man kann also nicht auf einen hersteller pauschalisieren, sondern muss die einzelnen produkte betrachten. ich denke mal, si als indiz für den verbrauch können wir damit wohl abhaken, hm? ;)
 
Stimmt, bei der HD4000 Serie hatte ich nur die HD4770 gekauft, das wird wohl seinen Grund gehabt haben. Diese Serie war eine Katastrophe im Sinne der Energieeffizienz.
 
und davor (hd3k) war ati wieder gut, weil sie als erste den idle-modus hatten (auch wenn sie last etwas schlechter waren). davor war ati wieder schlecht mit ihrer 2900xt... das ändert sich laufend. kann sein dass nvidia mit fermi2 ein stromsparwunder bringen oder ati den si nicht gut hinbekommen, dann dreht es sich wieder.
allerdings tippe ich in sachen verbrauch auf ati, da evergreen die basis für si ist und kein neuer fertigungsprozess kommt. da kann man nicht so ganz viel falsch machen ;)
 
1920 Shader?
384bit SI?
Verbessertes Frontend?

Der Chip müsste dann ja 400mm2 haben.

Also ich kann mir nicht vorstellen dass das SI 384bit gross sein soll. Ich denke es wird bei 256bit bleiben.
 
stimmt, beim wechsel auf 4d würde der chip schon entsprechend größer ausfallen. bei entsprechend mehr shader noch mal zusätzlich. dazu ne zweite tesselationseinheit... also entweder ati bastelt ihren eigenen monsterchip als antwort auf fermi oder an den gerüchten ist vllt doch nicht so viel dran^^
 
@lübke
eigendlich ist das der punkt, der bei mir den grosche hat grade fallen lassen. der größe platzbedarf von 4d zu 5d design dürfte der grund sein, warum sie das 4d design vermutlich haben fallen lassen für si und doch erst nächstes jahr bringen :/

hätte ich auch früher drauf kommen können -.-
 
HAHA was für ein nettes Gerücht ....


The Witcher 2 - Unterstützung für Radeon HD 6000-Features?

Das neue Rollenspiel von CD Projekt soll laut Gerüchten bereits erweiterte Fähigkeiten der nächsten ATI-Grafikkarten-Serie unterstützen.


The Witcher 2 : The Witcher 2 The Witcher 2 Obwohl bisher nicht klar ist, ob die noch in diesem Jahr erscheinenden neuen Grafikkarten von AMD überhaupt erweiterte Fähigkeiten besitzen, werden diese durch das für den 1. Quartal geplante Rollenspiel The Witcher 2: Assassins of Kings laut Gerüchten bereits unterstützt.

Zu den neuen Möglichkeiten gehören angeblich erweiterte Tessellation, verbesserte Beleuchtung, weiche und realistische Schatten und verbesserte anisotropische Filterung. Ob es sich dabei aber wirklich um neue Fähigkeiten handelt, die dann eigentlich außerhalb des DirectX 11-Standards liegen müssten, oder nur um interne Verbesserungen des Grafikchips für bereits vorhandene DirectX-11-Funktionen, ist nicht klar.

Laut VR-Zone liegt den neuen Grafikkarten sogar ein Coupon für The Witcher 2 bei. Eine Bestätigung für die Gerüchte gibt es wie üblich natürlich nicht.
 
öhm, antwort?
 
Ich meinte da einen Hauch von Zynismus erkannt zu haben (in dem von mir Zitierten).
Ist irgendetwas derartig unrealistisch, was die vermuteten technischen Neuerungen betrifft?

Oder bin ich geistig nicht auf der Höhe?^^
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben