News Nvidia: „Haben mehr von AMDs Radeon HD 7900 erwartet“

Ich werde nur auf einige Antworten konkret antworten :)

Lübke schrieb:
@McDaniel-77: dann rechne doch mal bei der gtx285 zur gtx480 nach ;) doppelte shader, mehr als doppelte transistoren und dann nur 60% mehrleistung? welche enttäuschung für mathematiker. die technik ist wohl doch etwas komplexer als du denkst. man kann nicht einfach n paar mehr shader reinpacken und erhält dann linear mehrleistung.

Pech, ich kann rechnen. Die GTX 285 ist eine DX10 Karte, während die GTX480 eine DX11 Karte ist. Die Rechenleistung der GTX 285 1.063 GFLOPs, die GTX 480 bietet 1.345 GFLOPs.

Die Rohleistung liegt also nur 26,5% höher bei der GTX 480. Im Spiele-Bench Crysis Warhead hat die GTX 480 aber 59% mehr Leistung. Doppelt soviele Shader, mehr 50% mehr ROPs, aber 25% weniger TMUs und TAUs. DX11 benötig wegen den DX11 Funktionen sehr viele Transistoren, welche sich nicht direkt in Grafikleistung niederschlagen, außer und DX11 Tests. Tessellation und so Unsinn eben.

DaBzzz schrieb:
Gibts Benches, wie ein Dual-4004 gegen einen Montecito aussieht? Bei 2x2300 Transistoren gegen 1,72 Milliarden muss ja echt Mehrleistung rausspringen :stock:

Ich habe nicht Transistorenanzahl alleine verglichen, sondern auch die MHz und andere Faktoren berücksichtigt. Hätte AMD einfach nur die Radeon 6970 auf 28 nm geschrumpft und dadurch die MHz erhöhen können, sowie die Anzahl der Shader-Einheiten, wäre mehr Grafikleistung heraus gekommen. Die neue GCN Architektur ist ähnlich schlecht, wie Bulldozer.

thethinthing schrieb:
Ich mag Leute die sich zuerst mal entschuldigen :D
So leicht ist das? Da frag ich mich warum es nicht bei jeder neuen Generation 200% nach vorne geht. oh wait..

Es war ein Fehler die Architektur zu verändern, schließlich ist es immer noch DX11. Der Sprung auf 28 nm hätte bei der alten Architektur eben für diese 70% mehr Leistung gereicht. Mehr Shader-Units, mehr Leistung.

Lübke schrieb:
@Sontin: dass die hd7000 eine vollkommen andere architektur als die hd6000 ist, ist dir aber schon aufgefallen, ja? multi-d shader vs. singel-d shader?
und die tesselationsleistung der hd7 liegt um ein vielfaches höher als bei der hd6 trotz nur doppelter transistoren. omg, wie ist das nur möglich? :O
dieses "zwei shader sind doppelt so schnell wie ein shader" und "zwei milliarden transistoren-chips sind doppelt so schnell wie eine milliarde transistoren chips" ist eine reine milchmädchenrechnung ohne hand und fuß. wer so argumentiert offenbart, dass er sich mit der materie kein bisschen auskennt. und in riddick oder batman grad mal 40 % schneller... willst du jetzt das performancerating aufdröseln?

PS360 Spiele sind meistens nicht besonders aussagekräftig für die Leistung moderner PC Hardware. In Hard Reset (DX9) unter FullHD und 4xAA+FXAA/16xAF ist die Radeon 7970 nur 33% schneller, wie die 6970. Unter BF3 (DX11) sind es nur 39% mehr Leistung. Das ist schwach, egal wie man es dreht.


Matzegr schrieb:
Dann schau dir mal bitte Benchmarks abseits von Spielen an. Bei DirectCompute Benchmarks liegt man mit einer HD 7970 teilweise 160% (also 2,6 fache Leistung) vor einer HD 6970. Die Folie hat Null Aussagekraft für die Performance in Spielen. Die DP-Leistung ist für Spiele nicht von Bedeutung.

DirectCompute ist relativ unwichtig für Spiele. "Die CU sind, wie bereits erwähnt, die Hauptunterschiede bei Graphics Core Next. Tahiti als Vollausbau und damit die Radeon HD 7970 setzt sich aus 32 CUs... ...zusammen." CB-Test Radeon 7970. Kein Wunder, dass die Radeon 7970 unter DirectCompute besser abschneidet, schließlich hat sie 32 CUs, die alte Radeon 6970 "nur" 24 CUs.

@Lübke:
"...oder erkläre mir mal folgendes: 6970 2,6 mrd transistoren, gtx570 3 mrd transistoren. trotzdem ist die 6970 locker gleichschnell. ganz schön grottig von nvidia so viele mehr transistoren zu verbauen und dann nur gleichschnell zu sein, oder?
jetzt könnte amd einfach noch 0,4 mrd transistoren draufklatschen und die gtx580 wäre geschichte. jedenfalls nach milchmädchenrechnung..."

Die Radeon 6970 läuft mit 880 MHz, die GTX 580 mit 772 MHz. Einfacher Dreisatz, eine GTX 580 mit ebenfalls 880 MHz, wäre ca. 14% schneller. Die Anzahl der Transistoren ist eben nur ein Faktor von vielen. Die Taktfrequenz ist ebenfalls sehr wichtig und die Anzahl der Shader-Einheiten, sowie die ROPs, TMUs und TAUs, auch die Speicherbandbreite und die Speicherfrequenz tragen etwas zur Gesamtleistung bei.
Im Schnitt ist es so, dass sich alle Einheiten aus Transistoren zusammensetzen, d.h. je mehr Transistoren, desto mehr Recheneinheiten können verbraut sein. Das steht in einfacher Relation bei GPUs des selben Kalibers.

McDaniel-77

P.S.: Warum Intel hier nicht mitmischt habe ich auch bei jemanden gelesen. Intel mischt bereits mit. Schon mal was von INTEL Graphics HD 2000/3000 gehört? Die GPU neben der CPU wird ständig weiter entwickelt. Wer weiß, wie stark sie bereits auf der Ivy Bridge ist?

P.S.S.: @Buttelchief: Sag das nicht zu laut ;-) Für die Entwickler ist es doch praktisch auf 2004/2005 Hardware aufzubauen. Spart Kosten. Es gibt aber schon gewaltige Unterschiede zwischen PS360 Grafik und PC. Man braucht sich nur etwas auskennen und schon bröckelt das Bild der PS360 auf "so war es früher einmal" zusammen. Crysis & Warhead, Dirt 2, BF3, Hard Reset... das geht alles auf PS360 nicht. OK, die Spiele bleiben natürlich unter den Möglichkeiten. Wer auf PS360 programmiert muss, Schlauchlevels und technischer Stillstand seit bald 7 Jahren eben hinnehmen.
 
Zuletzt bearbeitet:
@Bulletchief
Nicht wirklich, die PC Versionen der Spiele sehen bedeutend besser aus und laufen zudem deutlich flüssiger, sofern die entsprechende Hardware vorhanden ist.
 
McDaniel-77 schrieb:
Ich habe nicht Transistorenanzahl alleine verglichen, sondern auch die MHz und andere Faktoren berücksichtigt.

Gut, schmeißen wir noch ins Rennen, dass der 4004 nur bis 740 kHz konnte und gegen einen 1,60 GHz antreten muss. was sein Ranking nochmals um den Faktor 2162 verbessert. Außerdem bekommt der Itanium einen weiteren Malus, weil er mit DDR arbeiten kann und auch nichtsimultanes Multithreading beherrscht ;)
 
minimalst ot
SavageSkull schrieb:
Kann ich glatt mit meiner Diamond Monster 3D um eine Generation schlagen.
...
seid ihr jung... der erste rechner den wir daheim hatten hatte eine hercules monochrom grafikkarte. bei einem bekannten werkelte in seines vaters rechner eine cga augenvernichtungs "grafikkarte"
;p
 
Klingt zwar doof aber evtl kann amd nicht soviel mehr leistung rausholen in den benchmarks weil sie endlich mal bei der af qualität von nvidia angelangt sind (nein kein fanboy geschwaffel :D ) .
Und um mal was pro 7970 zu sagen wurde die tess leistung ja um einiges gesteigert auch wenn es auf dem pc nicht soviele games gibt die das ausnutzen würden ist GNC evtl auch für die zukunft.
Und so wie Nvidia damals bei fermi hat amd auch hier den spagat schaffen müssen/wollen zwischen architektur die für games reicht als auch im profibereich etwas aufschliessen kann.

Naja so schlecht finde ich die neuen amds nicht, wenn man sieht was für oc potenziall darin steckt.
Da die 78xx ja noch auf der alten architektur beruhen sollen (oder auch nicht) wird man hier dann sehen, was gewesen wäre/hätte sein können wenn amd einfach die alte architektur für dei 79xx geshrinkt hätte.

Wäre natürlich jetzt interessant auf was sich nvidia hier bezieht mit ihrerer Aussage
Gamer-FPS oder GGPU Performance ?
 
Zuletzt bearbeitet:
Marius schrieb:
In den letzten Tagen halten sich die bekannteren(Seriösen) Seiten auffällig mit Infos/Gerüchten zurück...
Z.B, daß der GK104 stark auf Fermi basiert, ein Shrink wenn man so möchte, aber zum Preis von UVP 300$ die GTX 580 überholt.(GTX 560Ti Nachfolger).

Ich halt es nicht mehr aus und muß es sagen:
Ich sehe viele, viele hochinteressante Paletten bei uns rumstehen...leider undurchsichtig verpackt, aber der Lieferschein spricht. :D
Nix mit Paperlaunch, darum sah man auch nix auf der CES.

Und ich Wette um mein linkes Ei, daß CB(und alle anderen) schon fest am Testen ist, bzw. der Finger über dem "Veröffentlichen" Button zittert!

AMD kann zusperren, schreiben eh schon wieder rote Zahlen.
Andererseits ist die 7970 ja auch nur ein übereilter, sein Geld nicht werter, Schnellschuß, der grade halt die Spitze übernimmt.
Die OC-Versuche zeigen ja, daß da sehr viel mehr drinnen ist.



Selten so einen Blödsinn gelesen. Hut ab :freak:
 
McDaniel-77 schrieb:
Es war ein Fehler die Architektur zu verändern, schließlich ist es immer noch DX11. Der Sprung auf 28 nm hätte bei der alten Architektur eben für diese 70% mehr Leistung gereicht. Mehr Shader-Units, mehr Leistung.

Du hast eine interessante Argumentationsweise, sie hat nur einen Haken und dieser ist, dass AMD ein gewinnorientiertes Unternehmen ist und somit hätten sie, sollten deine Vermutungen richtig sein und die alte Architektur mit einem Shrink besser sein als die Neue eben dieses auch so gemacht.

Da dem aber nicht so ist, kann man davon ausgehen, dass Shrink Tests mit der alten Architektur ergeben haben, dass es entweder zu viele Probleme bei einem Shrink geben würde oder eben die vorhandene Leistung nach einem Shrink nicht den von Dir errechneten theoretischen Werten entsprochen haben bzw. die Leistung der neuen Architektur gleich oder besser ist, wie die der Alten.
 
Zuletzt bearbeitet:
Abwarten und Tee trinken. Noch ist "Kepler" nicht erschienen und dann werden die Benchmarks und der reale Einsatz im Spielealltag zeigen, was Nvidias neue Karten wirklich können. Einfach nur große Töne spucken kann jeder!
 
McDaniel-77 schrieb:
Die neue GCN Architektur ist ähnlich schlecht, wie Bulldozer.
...
Es war ein Fehler die Architektur zu verändern, schließlich ist es immer noch DX11. Der Sprung auf 28 nm hätte bei der alten Architektur eben für diese 70% mehr Leistung gereicht. Mehr Shader-Units, mehr Leistung.

Es war eben kein Fehler, Ziel von AMD war die GPGPU-Leistung zu steigern. Dieses Ziel wurde erreicht, dass dabei die Leistung bei Spielen nicht so sehr gesteigert wird ist logisch und war von vornherein klar.

McDaniel-77 schrieb:
DirectCompute ist relativ unwichtig für Spiele. "Die CU sind, wie bereits erwähnt, die Hauptunterschiede bei Graphics Core Next. Tahiti als Vollausbau und damit die Radeon HD 7970 setzt sich aus 32 CUs... ...zusammen." CB-Test Radeon 7970. Kein Wunder, dass die Radeon 7970 unter DirectCompute besser abschneidet, schließlich hat sie 32 CUs, die alte Radeon 6970 "nur" 24 CUs.

Dann schau dir mal Benchmarks an. Nehmen wir die Ergebnisse der 6970 rechnen mal 1,33 um auf eine hypothetische 6970 mit 32 CUs zu kommen und nochmal mal 1,05 um den Takt anzugleichen. Damit hätten wir eine hypothetische HD 6970 mit 32 CUs und 925 Mhz. Diese Karte wäre (bei perfekter Skalierung wohlbemerkt) immer noch deutlich langsamer als eine 7970. Bei OpenCl würde die 7970 45%, bei Direct Compute teilweise 90% vor unserer hypothetischen 6970 liegen. Damit hat AMD das gesteckte Ziel erreicht. Die GCN Architektur ist bei GPGPU Aufgaben Leistungsstärker und nur darauf kam es AMD an.


Weder AMD noch Nvidia werden in Zukunft Grafikkarten anbieten, die primär für Spiele entwickelt sind. Beide Hersteller konzentrieren sich voll auf GPGPU und ein mehr an Leistung in Spielen ist ein nettes Abfallprodukt, aber nicht das Hauptziel.
 
Was halt komisch ist denn die Leute die sich solche Karten kaufen sind i.d.R. zocker die auf bessere Leistung in Spielen wert legen. Stromkosten sind den meisten auch Wurst wer mal eben 600 eur für so ne Karte hinlegt
 
Ich lese ständig von den Verschwörern hier, dass die 7970 nicht/schlecht lieferbar sei.

Habt ihr alle Tomaten auf den Augen?!

Wer JETZT eine 7970 haben möchte, wird diese auch bekommen! Siehe geizhals, idealo und co.
 
Booby schrieb:
Er gibt einen Unterschied zwischen können und müssen.
Tahiti lässt sich wunderbar übertakten ohne (und das ist wichtig!) das der Stromverbrauch bedeutend steigt, es heißt der Chip ist für höhere Taktraten entwickelt worden, bzw. seine effizienteste Taktrate liegt weit über der aktuellen. Ob man das bedingt durch die Marktsituation hemmt oder nicht, Tahiti kann weit mehr.

die meisten chips können eben nicht wesentlich mehr, das ist das problem dabei. sonst hätte amd die karte nicht mit den takt auf den markt geschmissen.
 
Was habt ihr eigentlich immer mit dem Charlie von Semiaccurate?? Schätzen oder die Schwiegermutter befragen bringt statistisch genausoviele treffer wie seine seiten lesen.
 
Dreck schrieb:
0815 Marketing-Gebrabbel und die Leute fangen an, sich gegenseitig die Köpfe einzuschlagen... hallo?^^

das schlimme dabei, es ist nichtmal marketing-gebrabbel, sondern einfach nur eine äusserung irgendeines nvidia-mitarbeiters. peinlich ist es, das irgendwer daraus eine "news" gebastelt hat.
Ergänzung ()

Lübke schrieb:
oder erkläre mir mal folgendes: 6970 2,6 mrd transistoren, gtx570 3 mrd transistoren. trotzdem ist die 6970 locker gleichschnell. ganz schön grottig von nvidia so viele mehr transistoren zu verbauen und dann nur gleichschnell zu sein, oder?
jetzt könnte amd einfach noch 0,4 mrd transistoren draufklatschen und die gtx580 wäre geschichte. jedenfalls nach milchmädchenrechnung...

dir ist schon klar, das fermi im gegensatz zur 6970 schon transistoren für hpc geopfert hat? also für den bereich, den amd erst jetzt mit gcn so langsam nachholt.
 
Zuletzt bearbeitet:
@McDaniel-77:
Pech, ich kann rechnen.
ja sogar mit äpfel gegen birnen. erstaunlich.

Die Anzahl der Transistoren ist eben nur ein Faktor von vielen.
nein, die anzahl der transistoren ist überhaupt kein faktor! eine hd7k ist etwas vollkommen anderes als eine hd6k. egal ob sie zehnmal mehr oder zehnmal weniger transistoren hat, es ist eine andere architektur!

dass die 1d-architektur mehr transistoren für die theoretische shaderzahl benötigt ist eine logische tatsach. darum kann man auch die transistorenzahl von 4d/5d-shaderkarten nicht einfach 1:1 mit der von 1d-shaderkarten gleichsetzen.

wenn das alles so einfach und oberflächlich wäre, wie du dir das vorstellst, könnten die chiphersteller sich die teuren entwicklungsabteilungen sparen. tsmc bringt nen neuen fertigungsprozess -> einfach von allen einheiten (shader, tmu, ) n paar mehr draufknallen und schon ist die neue chipgeneration fertig.

@acc:
dir ist schon klar, das fermi im gegensatz zur 6970 schon transistoren für hpc geopfert hat? also für den bereich, den amd erst jetzt mit gcn so langsam nachholt.
und die 7970 bzw ihr fire-ableger ist nicht hpc-fähig, hm? nvidia hat für viele dinge transistoren "geopfert" die die 6970 oder gtx285 nicht bieten. genau das versuche ich euch ja klar zu machen. dass die 7970 x% mehr transistoren besitzt bedeutet nicht, dass sie dafür auch x% mehr spieleperformance liefern muss. es gibt keinen unmittelbaren zusammenhang zwischen spieleleistung und transistorzahl.

die 7970 hat jetzt wie die gtx580 1d-shader, die 7970 hat jetzt erheblich mehr tesselationsleistung wo die 6970 ein defizit hatte... schneller ist die 7970 auch, klar. aber das ist nur eine von vielen verbesserungen zum vorgänger. man kann nicht einfach n paar transistoren auf den chip löten und schon rechnet er schneller. und einfach von allem mehr draufklatschen bringt auch nix.

mal zur veranschaulichung n alter benchmark mit voll ausgereitztem oc, 3D-Mark 01 SE:
GTX580: 139.783 http://hwbot.org/submission/2216982_nickshih_3dmark2001_se_geforce_gtx_580_139783_marks
GTX285: 131.780 http://hwbot.org/submission/2173747_massman_3dmark2001_se_geforce_gtx_285_131780_marks
GTX275: 133.008 http://hwbot.org/submission/2194654_diabolo_80_3dmark2001_se_geforce_gtx_275_133008_marks
HD6950: 127.128 http://hwbot.org/submission/2205159_pixy_3dmark2001_se_radeon_hd_6950_127128_marks
HD4890: 126.803 http://hwbot.org/submission/2196632_spl_3dmark2001_se_radeon_hd_4890_126803_marks
8800GTS: 122.387 http://hwbot.org/submission/1004835_tapakah_3dmark2001_se_geforce_8800_gts_512_mb_122387_marks
HD7970: 112.000 http://hwbot.org/submission/2243653_gamer_3dmark2001_se_radeon_hd_7970_112000_marks

die 7970 auf i7 @ 5,8 GHz wird von ner 8800gts auf i5 @ 5,8 GHz plattgemacht obwohl sie von allem mehr hat. warum? weil die moderne architektur der 7970 bei den spieleengines aus 2001 nicht optimal genutzt wird. die 7970 ist de facto um ein vielfaches schneller, egal wie hoch man eine 8800gts übertaktet. dennoch ist das nicht so oberflächlich wie einige es betrachten. das ist eine komplexe technik.
 
Das ist nichts neues. Siehe Amazon.
 
acc schrieb:
die meisten chips können eben nicht wesentlich mehr, das ist das problem dabei. sonst hätte amd die karte nicht mit den takt auf den markt geschmissen.

Oh doch, warum sollte man nicht das maximale aus einer Wafer rausholen, wenn man so oder so die schnellste Karte hat? So hat man noch nach oben ne Menge Luft, der Fertigungsprozess wird ja mit der Zeit auch immer besser. Wenn man gleich bei >1000 MHz gestartet wäre, hätte man auch den Takt bei den kleineren Karten hochsetzen müßen. Damit senkt man aber die Ausbeute und somit den Gewinn. Das wäre mehr als dumm, vor allem wenn man aktuell keine Konkurrenz hat.
 

Ähnliche Themen

Antworten
98
Aufrufe
17.989
boxleitnerb
B
Zurück
Oben