ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Unyu
Was hast du den Verglichen? Ich die 285GTX mit der GTX 380.

Mtr ging es auch eher um Aussagen die sich darauf bezogen das die GTX 360 gegenüber der 5870 50-60% zulegt. Und ich Vergleiche lieber Auflösungen und Einstellungen welche auch verwendet werden. Und der Verglich mit alten und neuen Treibern ist auch zwiespältig, zumal grade bei den gern bebenchten Spielen alte Karten mit Aktuellen Treibern ebenfalls noch ordentlich zulegen können.

Gut, will mich da nicht groß streiten da ich in der Regel Vermutungen und Spekulationen nicht sehr viel abgewinnen kann. Ich verstehe nur manche überdrehten Aussagen nicht.

Persönlich erwarte ich das sich die GTX 380 sich ca. 10 bis max 20% von der 5870 absetzen kann. Im reinen Spielbetrieb. Wenn es mehr ist, schön, mehr Leistung ist immer gut, wenn es aber in diesem Rahmen ist, wäre ich schon zufrieden. Wie gesagt, ich halte nach allen Aussagen den Femin so oder so nicht für eine GPU die prädestiniert für den Spieler konzipiert wurde sondern, und das sagt nVidia hier und da ja selbst, die Richtung eher sehr stark auf professionelles GPGPU ausgelegt ist.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Eon-Deon schrieb:
@Unyu
Was hast du den Verglichen? Ich die 285GTX mit der GTX 380.

Mtr ging es auch eher um Aussagen die sich darauf bezogen das die GTX 360 gegenüber der 5870 50-60% zulegt. Und ich Vergleiche lieber Auflösungen und Einstellungen welche auch verwendet werden. Und der Verglich mit alten und neuen Treibern ist auch zwiespältig, zumal grade bei den gern bebenchten Spielen alte Karten mit Aktuellen Treibern ebenfalls noch ordentlich zulegen können.
davon hab weder unyu noch ich je gesprochen. ich hab explizit die "380er" mit einer 28x verglichen und die von mir vermutete steigerung beschrieben.

folgendes halte ich für durchaus realistisch:
Dural@3dcenter schrieb:
56461684215.jpg


und wo die 80-100% hinführen können sieht man da:

4564646341.jpg

(GTX275 = ca. GTX280)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7722821#post7722821
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Neo_Xsendra und Eon-Deon: es kommt nur darauf an, wie weit man die klassifizierung der architektur runterbricht. der g80 war unified-shader 1d architektur, der fermi ist unified shader 1d-architektur, ergo gleiche architektur. der g80 ist sm 4.0 architektur, der fermi ist sm 5.0 architektur, ergo: unterschiedliche architektur ;)

was die erwartungshaltung an den fermi angeht, kann man wohl wirklich einen "flop" vermuten. die 5970 mit einer gpu zu erreichen ist unrealistisch. und wenn ich an die letzten karten denke, die sich so verspätet haben (2900xt, fx5800) dann ist das nicht grad ein gutes vorzeichen ;)
viele sehen wirklich nur "oh mehr als doppelt so viele shader, dann muss die ja mehr als doppelt so schnell sein".
wie Complication schon richtig sagte, die karte kann ruhig richtig gut werden, aber aufgrund der unrealistisch hohen erwartungshaltung wird sie trotzdem für die meisten eine enttäuschung.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Eon-Deon

also cih hab grade mal die folien nochmal verglichen (g200<->fermi) und ... irgendwie kann ich dir nicht zustimmen -.^

@Screemer

hmm ... entdlich mal ne begründete leistungsspekulation ...

@lübge

ich orientier mich bei der architektur für gewöhnlich an der architektur des chis und nicht nur der shader o.o~
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die Vergleiche mögen ja realistisch sein,oder auch nicht.
Da hier ja die GTX275 und GTX280 als gleichwertig dargestellt werden, empfiehlt es sich mal in deren unterschiedliche Werte zu schauen um zu sehen wie viel Rolle diese überhaupt spielen:
http://de.wikipedia.org/wiki/Nvidia-Geforce-200-Serie#Modelldaten

Wenn man das anschaut sieht man dass die GTX280 14% Mehr ROPs hat und ca. 100MHz weniger Takt bei Speicher und Shader.

Was nun von den Tesla-Karten als gesichert gilt, ist das Problem, dass die Fermi Architektur wohl nicht besonders hoch takten kann:
http://www.pcgameshardware.de/aid,6...erste-Fermi-Grafikkarte-vor/Grafikkarte/News/
Der exakte theoretische Spitzenwert hängt von der Taktfrequenz der Shader-ALUs ab. Hier hat Nvidia wohl noch keine endgültige Festlegung getroffen. Nach derzeitigem Kenntnisstand entsprächen die Werte 1.015 bis 1.230 MHz Shader-Takt. Sollten diese niedrigen Takte auch in die Geforce-Reihe Fermi-basierter Grafikkarten durchschlagen, hätte Nvidia wohl ein ernstes Problem.
Dies wird eben durch die höhere Anzahl an Shadern kompensiert, was aber wie geschrieben im Zitat Grenzen hat.

Jetzt wirft man noch die Grösse des Chips in die Waagschale und den Strombedarf und man kommt immer irgendwo an eine Grenze des machbaren.

http://www.pcgameshardware.de/aid,6...re-Bilder-und-Informationen/Grafikkarte/News/
alle Angaben zur Leistungsfähigkeit sind also pro Takt gemeint, was nicht unbedingt mit dem Leistungsverhältnis der finalen Produkte zu ihren Vorgängern zu tun haben muss.
[...]
Nach wie vor stehen die finalen Taktraten der Fermi-Karten nicht fest, entsprechend lässt sich auch aufgrund der runderneuerten Architektur die Performance im Spielebereich im Vergleich zur HD 5870 kaum einschätzen.
hier noch mehr zur Relevanz des Taktes:
http://www.hardware-infos.com/news.php?news=3304
Offenbar hat Nvidia auch bei der Fermi-Architektur erneut ein Problem mit dem Takt der Shaderdomain. Möglicherweise findet sich auch hier einer der Gründe dafür, dass Nvidia noch ein weiteres Stepping bringt, ehe die Karten zur Marktreife gelangen.
Die These, dass die Tesla-Karten stets etwas niedriger getaktet sind als die Geforce-Karten, gilt zumindest nicht für den Shadertakt. Dieser ist gerade für die Profikarten von hoher Relevanz und insofern üblicherweise auf Desktop-Niveau.

Also sollten wir mal ausschau nach Taktraten halten um etwas mehr Licht ins Dunkel bringen zu können :)

Na da hab ich doch was gefunden:
http://www.hardwareboard.eu/showthread.php?t=12978
Nvidia GeForce GTX 380:
Chip: 650 Mhz
Shader: 1700 Mhz
Speicher: 1050
CUDA Cores: 512
TMUs: 128
ROPs: 48
Speicherinterface: 384 Bit
Speicher: GDDR5
Speichergröße: 1,5 GB
Interessant wird das Duell zwischen GTX 360 und HD 5870. Beide in etwa gleiche Leistung, gemäß den o.g. Daten.
Hier kommt es auf den Chip an, wer effektiver ist.

Und es wird auch schon davon gesprochen dass die HD5870 schneller sein soll wenn es blöd läuft und sie die Taktraten nicht in den griff bekommen:
http://www.semiaccurate.com/2009/12/10/fermi-a3-silicon-oven/
The last open question is what A3 will be. We are told bin splits for A2 would put the top clock for Fermi at about 500MHz, and yields were described as "alarming". Last spring, insiders told us that initial targets were 750MHz , 50% up on A2. Nvidia PR drones were, note the past tense, claiming that it would beat Cypress by 40%, so a 500MHz version is likely to be a tad slower than an ATI Radeon HD5870. Not a convincing launch message there.
 
Zuletzt bearbeitet: (weitere Quelle)
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

wenn das stimmt (und diese aussagen sind schon häufiger aufgetaucht) dann ist klar, warum der fermi nicht auf den markt kommt. vermutlich auf dem papier schon lange fertig, aber der herstellungsprozess mit 40nm ist einfach nicht realisierbar.
750 mhz sind ja bereits mit einem in vergleichsweise groben 55nm gefertigten g200 zu erreichen. bei 40nm wären diese werte daher in der theorie problemlos realisierbar. leider sieht die praxis anders aus.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Das das bei einigen immernochnicht angekommen ist:
Fermi ist komplett neuer Chip und basiert _!!!NICHT!!!_ auf dem G80
Ergo kann Fermi genauso ein großer Brocken wie die G80er werden

Und wenn der wirklich so heftig wird
Dann hat ATi bis zur 6er Reihe dem denk ich mal nix entgegenzusetzen

Atm sieht es ja so aus das sich die GTX380 mit der HD5970 kloppen soll, das wär schon echt nen Hammer
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Shurkien schrieb:
Das das bei einigen immernochnicht angekommen ist:
Fermi ist komplett neuer Chip und basiert _!!!NICHT!!!_ auf dem G80
Ergo kann Fermi genauso ein großer Brocken wie die G80er werden

Das wird sich noch Zeigen. Ich glaube da aber eher nicht dran.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Atm sieht es ja so aus das sich die GTX380 mit der HD5970 kloppen soll, das wär schon echt nen Hammer
Naja schön wärs ja, doch wie soll das mit den Daten die bis jetzt bekannt sind funktionieren? Selbst Nvidia selber spricht nur von "would beat Cypress by 40%". Die gehen mit Sicherheit von Bestwerten aus, wo man dann realistischerweise wieder was abziehen muss. Dann muss man auch noch hoffen dass sie mit dem Takt auch da landen wo sie wollen, doch leider sieht es so aus, dass dies wohl Schwierigkeiten bereitet.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

DU sprichst auch von den Daten die bis jetzt bekannt sind
Wohher weißt du denn ob sie da evtl noch was geändert haben?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ob der Fermi nun auf dem g80 basiert ist doch egal. Jedenfalls sind die Strukturen, vor allem im Shaderbereich sehr ähnlich.
Ergänzung ()

Selbst Nvidia selber spricht nur von "would beat Cypress by 40%".

Eben und da weiß man noch gar nicht mit welcher Karte. Und falls sie das tun hat ATI immernoch Treiber (angeblich) und eine HD5890 zu bieten.
Letztendlich wird der Leistungsunterschied nicht so groß sein. Aber Nvidia wird auf Biegen und brechen auf jeden Fall die etwas schnellere Karte anbieten.
Müssen sie auch, damit sie die auch teuer anbieten können, der Chip die Entwicklung neuer Steppings, Warterei.. etc.. kosten viel geld.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Huch, aufeinmal ist Charlie doch nicht mehr der Meinung der Launch würde im Juni(?) stattfinden.
Da kann man Charlie natürlich getrost glauben, das es bei den 500Mhz des A1 bleibt.

Schaffe89 schrieb:
Ob der Fermi nun auf dem g80 basiert ist doch egal. Jedenfalls sind die Strukturen, vor allem im Shaderbereich sehr ähnlich.
Vor allem das weggelassene Mul deutet auf eine exakt vergleichbare Architektur hin.

Eben und da weiß man noch gar nicht mit welcher Karte. Und falls sie das tun hat ATI immernoch Treiber (angeblich) und eine HD5890 zu bieten.
Auchja, AMD hat noch Treiber.
Ich weiss zwar das AMD scheinbar zum Launch keine Treiber hatte, aber was soll diese ewige Treibergeschichte. Natürlich hat AMD Treiber, Nvidia hat auch Treiber.
Und eine HD 5890 muss AMD erst gar nicht aus dem Hut zaubern, ihr Flagschiff nennt sich HD 5970.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ja vor allem muss man sich mal Fragen womit die noch verglichen haben - Ati bingt neue treiber und die Benchmarks werden 10% besser mit dem Update:
Catalyst 9.12 vs 9.11
http://www.overclockers.com/forums/showthread.php?p=6336381#post6336381

Und das Hotfix gibt den Crossfirebetrieb für Eyefinity frei:
http://support.amd.com/us/kbarticles/Pages/ATICatalyst912Hotfix.aspx

Eigentlich kann man alle aktuellen Benchmarks somit vergessen und muss sowieso auf neue warten wie das jetzt aussieht.
Aber es ist beeindruckend was Ati/AMD derzeit nur mit Treiberupdates raus holt. Vor allem das immer wieder nach schieben neuer Features ist überraschend.
Und ich gebe Schaeffe recht: Sie werden sich noch was in der Hinterhand halten um den Fermi Release zu kontern. Ich würde mal sagen der Druck wird nicht kleiner für Nvidia.

Wobei das Eyefinity nun wohl auch eine immer grössere Rolle spielt seit Sapphires DVI<->DP Adapter erschienen ist. Ich ertappe mich immer wieder bei dem Gedanken, dass es bei mir im Kopf ein Feature auf der Liste ist waas eine GPU können sollte. Weniger zum Zocken aber ich bemerke immer wieder dass ich gerne noch einen dritten Monitor hätte bei der Arbeit.
Ergänzung ()

Da kann man Charlie natürlich getrost glauben, das es bei den 500Mhz des A1 bleibt.
Naja er schrieb auch vom A2.
Und sicherlich wird der Fermi nich mit 500 MHz released, doch es kann dazu führen dass man ein weiteres Stepping auf A4 benötigt - das wäre eigentlich ebenso fatal. Also könnte es bei bleibenden Schwierigkeiten dazu führen, dass ein fauler Kompromiss gelauncht wird der die Erwartungen nicht erfüllt.

Und eine HD 5890 muss AMD erst gar nicht aus dem Hut zaubern, ihr Flagschiff nennt sich HD 5970.
Naja das was du Flaggschiff nennst ist keine Single-CPU. Da sollte man nicht Äpfel mit Birnen vergleichen. Die 5870 hat 2x6-PIN Stromstecker und die Fermi wohl 1x6 und 1x8. Somit hätte AMD durchaus noch Luft um mehr Strom zu verwenden bei einer weiteren 5890. Man wird auch irgendwie das Gefühl nicht los, dass hier noch nicht alles gezeigt wurde wenn man die Verbrauch/Wärme/Lautstärke Daten sich anschaut ist das recht ungewöhnlich für den Benchmark-Spitzenreiter sich so genügsam zu geben.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ok Romsky, wollte nur mal meine Meinung dazu sagen :D

Aber konzentrieren wir uns hier leiber auf Fermi usw.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Shurkien schrieb:
Das das bei einigen immernochnicht angekommen ist:
Fermi ist komplett neuer Chip und basiert _!!!NICHT!!!_ auf dem G80
Ergo kann Fermi genauso ein großer Brocken wie die G80er werden

Jup und eben bei neuen Architekturen kann es passieren, dass man statt nem Kompressor ne Luftpumpe erhält. Siehe P4 Netburst Architektur. Und im Moment ist der Himmel für Nvidia rabenschwarz.

Unyu schrieb:
Huch, aufeinmal ist Charlie doch nicht mehr der Meinung der Launch würde im Juni(?) stattfinden.
Da kann man Charlie natürlich getrost glauben, das es bei den 500Mhz des A1 bleibt.

Wenn ich das richtig lese, hängen seine Mutmaßungen davon ab, wie Nvidia jetzt reagiert nachdem die A3 Chips zur Testproduktion gelangt sind. Sollte Nvidia gleich sagen Auge zu und produzieren dann würden ab jetzt GF100 Chips produziert, allerdings weiß keiner was im Endeffekt bei raus kommt allerdings wäre zwischen Januar und März eine lieferung der Karten mit unbekannten Specs denkbar. Sollte Nvidia warten bis das A3 Testmuster zurück kommt um dann mit der Produktion zu beginnen dann wären März/April denkbare Termine.

Sollte mit dem A3 Muster was schief laufen und sie nochmal an´s Reißbrett müssen dann kannste Juni als durchaus realistisch betrachten.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

naja, das statement ist nicht mehr als schadensbegrenzung und aufforderung zum durchhalten.
so etwas würde wirklich jeder firmen-sprecher von sich lassen wenn er zu einem ihrer verzögerten produkte befragt wird.

nichts als heiße luft.
das ist übrigens absolut unabhängig betrachtet und kein ati-fanboy gesabber ;)
Ergänzung ()

@ SCREEMER:
wenn du schon so toll rumrechnest dann auch richtig.
die durchschnittliche leistungssteigerung dürfte wenn dann ~ 70% betragen und nicht 80-100...also wenn man dich ernst nehmen soll, dann verfälsch nicht deine eignenen "berechnungen" .....omg
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

[FONT=arial, helvetica][FONT=arial, helvetica]Michael Hara, Senior-Vizeppräsident Nvidias
[/FONT]
[/FONT]
Dieser [FONT=arial, helvetica][FONT=arial, helvetica][FONT=arial, helvetica]60-Tage Vorsprung zwischen der Veröffentlichung der AMD-DX-11-Grafikkarten und unseren Produkten wird langfristig unbedeutend sein.[/FONT][/FONT][/FONT]
[FONT=arial, helvetica][FONT=arial, helvetica][FONT=arial, helvetica]
Haha , dann gäbe es laut Mr. Hara's Zeitrechnung die neue Grafikkarten schon seit ende November und keiner hats mitbekommen:evillol:
[/FONT]
[/FONT]
[/FONT]
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich steh der Sache sehr skeptisch gegenüber.


ICh mein mal irgendwoe gelesen zuhaben das der neue Fermi Chip gar nicht so sehr ausf Spielen ausgelegt ist bzw. sein soll
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Antimon schrieb:
Sollte mit dem A3 Muster was schief laufen und sie nochmal an´s Reißbrett müssen dann kannste Juni als durchaus realistisch betrachten.
Wobei man dann genausogut Fermi canceln und auf den Refresh setzen könnte.
Nur bisher sehe ich keinen Grund warum man A3 nicht fertigen sollte. Man hätte auch A2 zur Produktion schicken können, aber bekanntermaßen hat TSMC noch Probleme bei 40nm Monsterchips.

Complication schrieb:
Naja er schrieb auch vom A2.
Imho meint er A1, auch wenn er es nicht zugeben will.

Naja das was du Flaggschiff nennst ist keine Single-CPU. Da sollte man nicht Äpfel mit Birnen vergleichen.
Geb nicht mir die Schuld das MGPU den SGPU Markt zerstören.
Tatsache ist, das die HD 5970 AMDs Topmodell ist. Bzw zwei zusammen ergeben AMDs schnellste Desktoplösung.
Platz für minmal mehr Takt bei entsprechend höherer Spannung ist sowohl bei HD 5870 als auch be HD 5970 möglich, aber was manch einer für Wunder erwartet ist erstaunlich.

Allerdings was willst du uns mit den 10% Mehrtakt bei höherer Spannung mitteilen? Solange Nvidias Antwort nicht entgültig ist, bringen die Ahnung der 10% garnichts.

Visualist schrieb:
http://www.hartware.de/news_48119.html
http://www.computerworld.com/s/arti...insignificant_Nvidia_says?source=rss_hardware
Interessant übersetzt, angefangen bei der Überschrift. Der Rest bleibt natürlich Marketing
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben