News AMDs neue Radeon HD 6900 setzen auf „4D-Shader“

HeiderKiller schrieb:
Kann mir jemand in seinen eigenen Worten erklären was '4D' bedeutet.
3D ist mir klar, aber 4D?
HK


das stellt in erster linie eine vliw da, dass heißt (stark vereinfacht) es ist eine recheneinheit, die bei der radeon 69xx aus 4 untereinheiten bestehet. um diese effektiv zu nutzen muss das programm (in diesem fall pixel oder vertexshader) der einheit sagen:
"untereinheit 1 berechnet dies, untereinheit 2 berechne das, untereinheit 3 bereche jenes usw."

einen compiler dafür zu bauen ist relativ schwer. intels italium ist auch daran gescheitert, dass selbst intel (als compilerspezialist) das nicht gut genug geschaft hat (scheitert häufig nicht mal am compiler, sondern daran, dass die daten zu abhängigkeiten haben)


wenn du shader in passenden assambler schreibst, kann es passieren, das die amd gpu pötzlich um bis zu faktor 2 schneller ist. allerdings machst du dich damit hardwareabhägig...
 
Zuletzt bearbeitet:
Die zweifache Performance in Sachen Geometrie,das nenne ich mal nen Wort,
bin sehr drauf gespannt was im Endeffekt für den User übrig bleiben wird,hoffentlich wird
auch an der Qualität der Filter gearbeitet,da würde ich auch gerne auf ein paar Prozent
Performance verzichten,freue mich schon auf einen ausführlichen Test,hier auf CB.
 
Hmm da binn ich gespannt liest sich ja Alles sehr gut, nur der Stromverbrauch schreckt mich ein wenig, unter 300W für die 6970 na mal sehen wieviel es dann tatsächlich sind.
 
Hauptsache beide Hersteller machen sich ordentlich Konkurrenz, damit wir als Kunden davon profitieren.
 
ich werd mal hoffen das die nicht zu teuer werden .... 6950 bei ca. 250-300 un die 6870 bei 350-400 das wär cool :) dann wär die 6950 meine :D
aber sonst hört es sich doch supie an :)
 
6950 ~ 250-300 ~
6970 ~ 325-375 ~
wäre sonst recht teuer ^^
 
Bin sehr gespannt auf die ersten Tests!
Das wird dann der "Moment der Wahrheit" sein.

Gruß
sunzi
 
Kasmopaya schrieb:
Wenn man davon ausgeht das die neue Architektur effizienter wird wie die HD 5 und die Karte zimlich viel Strom frisst, dürfte die Karte extrem schnell werden. Hammer was für ein Brocken, da muss sich eine GTX 580 ganz schön ins Zeug legen, bei 1,5GB Vram teilweise(Vram Settings) gar nicht möglich diese Karte hier zu schlagen.

Beide sind nicht bestätigt sowohl AMD als auch die Nvidia also hat es noch keine schwerer als die andere.... Auf dem papier hat die 6870 auch toll ausgesehen und was ist sie geworden ein krüppel aller erster Sane.
 
ja aber denk ma das die ungefähr so teuer / billig werden wie die HD5850 un 5870 am anfang aber wäre echt hamma wenn die HD6950 so im preiß is dann kann ich mir die echt noch leisten hehe :D:D
hoffe nur die kommt an die gtx 480 dran :) (6950)
Ergänzung ()

sse3 die is kein krüppel -.- nur weil die BQ bissel was schlecht is un das kann man eh beheben durch treiber denk ich ^^
 
StevyKing schrieb:
ich werd mal hoffen das die nicht zu teuer werden .... 6950 bei ca. 250-300 un die 6870 bei 350-400 das wär cool :) dann wär die 6950 meine :D
aber sonst hört es sich doch supie an :)

Die werden doch nicht Billiger als die 5850 und die 5870 jetzt sind !
AMD hat doch auch nichts zu verschenken.
Ich würde mich natürlich freuen wenn sie günstig sind.
 
ATI Soldat schrieb:
hauptsache sie ist deutlich schneller als die GTX580 und braucht weniger Energie.

Sowas ist nie gut, weil dann Fantasiepreise verlangt werden. Wenn beide etwa gleich sind ist's ok. Andererseits ...wären die 69er dann eine Enttäuschung. Also doch lieber auf die Power von AMD hoffen?:confused_alt::freaky: hmm

papier hat die 6870 auch toll ausgesehen und was ist sie geworden ein krüppel aller erster Sane.
erkläre das bitte, ich versteh nicht was du meinst
 
Auf dem papier hat die 6870 auch toll ausgesehen und was ist sie geworden ein krüppel aller erster Sahne.

Ein Krüppel der aus weniger Shadern mehr Leistung entlockt (im Vergleich zur 5850) musst du mir mal erklären. Ach weißt was deine Erklärung kannste dir sparen kommt eh nix gscheites bei raus.

BTT: Es muss sich erstmal rausstellen um wie viel effizienter 4D ist. Und theoretische Geometrieleistung sagt leider wenig über reale Performance aus.
 
also die 5850 bekommt man schon unter 200 un die 5870 bekommt man jetzt schon ab 270 also :P un als die neu rauskamen waren die auch in dem preiß ^^ so meint ich das eig
 
@sse3 Also man kann nicht sagen, dass die 6870 n Krüppel ist, wenn sie der Nachfolger der 5770 ist und auf dem Niveau der 5850 ist, wenn ich mich recht entsinne.

Der Verbrauch ist, würde ich meinen, der maximale Verbrauch, wenn alle Schienen voll ausgelastet sind, weswegen ich des eher als kleinen Scherz interpretiere, der gegen Nvidias Blockheizkraftwerke gerichtet ist.

Ach und: Auf dem Papier hat die GTX480 auch "toll" ausgesehen, was draus geworden ist wissen wir ja... ^^
 
HeiderKiller schrieb:
Kann mir jemand in seinen eigenen Worten erklären was '4D' bedeutet.
3D ist mir klar, aber 4D?

HK

Ich versuchs auch nochmal. Auf der Folie steht was von VLIW 4D.
VLIW bezieht auf die Architektur eines Prozessors/Grafikprozessors und bedeutet Very Large Instruction Word. Was so viel bedeutet wie, das ein einzelner Prozessorkern(bei der GPU auch Shader genannt) zu einem Zeitpunkt mehrere Befehle ausführen kann.
So ein Shader braucht dann halt mehrere Recheneinheiten, um das tun zu können und in diesem Fall sind es halt 4 Recheneinheiten.
Vorher beinhaltete ein Shader bei AMD-Karten 5 Recheneinheiten.
Anscheinend hat AMD herausgefunden, das 5 Recheneinheiten zu viel sind und ist deswegen auf 4 umgestiegen.
 
Dai6oro schrieb:
Ein Krüppel der aus weniger Shadern mehr Leistung entlockt (im Vergleich zur 5850) musst du mir mal erklären. Ach weißt was deine Erklärung kannste dir sparen kommt eh nix gscheites bei raus.

BTT: Es muss sich erstmal rausstellen um wie viel effizienter 4D ist. Und theoretische Geometrieleistung sagt leider wenig über reale Performance aus.

Mehr Recheneinheiten bedeuten auch nicht immer mehr Rechenleistung!
Theoretisch vielleicht schon aber mit steigender Anzahl der Recheneinheiten steigt auch der Verwaltungsaufwand.
Ich kann dir dazu nur sagen, das es in dem Bereich Cluster Computing nichts neues ist, das die nutzbare Rechenleistung mit steigender Anzahl von Kernen immer schwächer zunimmt.

@JimNastik
bei der steigenden Seitenanzahl hat doch sowieso keiner mehr Lust, alles zu lesen...
 
Zuletzt bearbeitet:
Zurück
Oben