Bericht Bericht: Nvidia GF100: Technische Details

masterbratak schrieb:
mit wem haben die Spiele entwickler angefangen als erstes an dx11 titel für PC zu arbeiten?

mit ati!
Mag sein. Die Aushängeschilder von DX11 sind aber Tesselation und Compute Shader - zwei Domänen wo der GF100 sehr stark zu sein scheint.

@Sun_set_1
Full acknowledge!
 
Zuletzt bearbeitet:
Oktanius schrieb:
Ach was? Auch über ne Glaskugel gestolpert?


Ob dies fest steht weiss doch noch keiner. Das Jahr 2010 hat doch erst angefangen. Oder weisst du schon was der Oktober 2010 bringt? :rolleyes:


Mann mann mann - solche post dienen niemandem - ausser deinem nV ego

Ich verstehe Deinen Angriff nicht. Hat es sich jetzt so eingebürgert, den anderen gleich als FB anzugreifen?
"BTW":
Ich brauch doch keine Glaskugel um zu wissen, das Fermi auf 28nm geshrinkt wird. :rolleyes: Oder wie ist die Essenz deines Angriffs zu verstehen?
Antimon schrieb:
Ach nur? Und wer produziert das dann? TSMC? Die haben noch keinen lauffähigen 28nm Prozess. Intel dagegen überspringt den 28nm Prozess und will gleich auf 22nm gehen. Die einzigen 28nm Wafer die mir im Moment bekannt sind, sind Testexemplare von Global Foundries und ob Nvidia dort fertigen lässt.....ich wage es zu bezweifeln. :rolleyes:



Was so viel heißt, wir haben heute den "Leistungs-Idealfall" zu sehen bekommen und es gilt ab zu warten wie sich der Fermi im Alltag schlägt.

Was heisst jetzt? Und was Intel damit zu tun?:rolleyes:
Ich beziehe mich ausschliesslich auf den Artikel von Hardware-infos:
Als Grund für die vermeintliche Verspätung führte AMD den Wechsel auf Globalfoundries an. Diese scheinen TSMC etwas im Zeitplan hinterherzuhinken. So wird man das benötigte 28 Nanometer-Bulk-Verfahren erst in Q4/2010 installieren können.
 
nacvh 11 seiten lesens denke ich ist es an der zeit den beitrag zu schließen, weil einige leute hier nichts kappieren und immer das selben ....... labern.
 
Natürlich... Hast du das White Paper gelesen?

Seite 2:
Dedicated to the World’s PC Gamers

Conclusion:
PC gaming has been NVIDIA’s core passion for sixteen years. With GF100, we continue this
commitment to the advancement of 3D graphics and PC gaming.
 
Sun_set_1 schrieb:
Was ich immer wieder interessant finde ist diese These das Fermi für den Verbaucher ja so unglaublich Teuer wird. Und was ich viel interessanter finde, wie viele 100000000 Leute das so aufgrabschen.

Sagen wir mal die Ausbeute ist wirklich schlecht und liegt bei dem Faktor 0,5 bis 0,7 gegenüber dem GT200 (Aufgrund der Größe) (ATI Vergleiche hier völligst unangebracht) was bedeuten würde für den Verbrauche steigen die Produktionskosten je Die um 1,5 bis 1,8.

Soweit so gut. Aber wie hoch sind noch mal die Produktionskosten eines Die im Vergleich zum Endpreis für den Verbaucher? 3 oder 4 % des Gesamtpreises ? Oder noch weniger ??

Überhaupt kein Grund da von 200€ Mehrkosten zu sprechen. Einen solchen Chip würde Nvidia niemals produzieren da die Nachfrage, bei einer Karte die 700€ oder mehr kostet, so drastisch einbrechen würde dass die den Break-even-Point in 20 Jahren erreichen.

Das weiß Nvidia ebenso oder glaubt ihr etwa alle Nvidia denkt sich

"wir machen da jetzt mal einen Chip mit dem wir definitiv Verluste verbuchen nur um ATI mal die Grenzen aufzuzeigen"

Im Endeffekt wird die Karte 10, maximal 20 Euro an Mehrkosten aufweisen (was mE nach als pro Stück noch viel zu hoch kalkuliert ist, vllt 5 Euro).

Das Problem, wenn TSMC seine Lieferzusagen und Produktionsversprechungen nicht einhalten kann (was immo ATI Gegenüber ein Problem ist) schlägt sich nicht in ATI's oder dann bald Nvidias Produktionskosten nieder, sondern in denen von TSMC! Das ist allein deren Bier wenn die ihre Fertigung nicht in den Griff kriegen.


Über die Leistung lass ich mich nicht aus da Niemand die Karte bis jetzt kennt.

Nur diese ganzen Besserwisser hier, die glauben das sich bei Nvidia noch kein Mensch Gedanken über Größe, Yieldrate, Ausbeute, Verfügbarkeit usw. us.f gemacht hat und hier meinen es besser zu wissen haben'se einfach nicht mehr alle aufm Zaun, sorry aber ist meiner Meinung nach so.

Das ham se ja schon mit der GTX280/260 gemacht also wieso nicht auch mit dem fermi -
Nun die frage warums e trozdem schwarze zahlen gemacht haben, tja nvdia hat OEM verträge und lowcost karten die den gewinn reinbringen.
Aber nicht ohne grund hat nVidia letztes jahr die produktion eingestellt nachdem man eben massig highend chips (man sprach von ca. 1mio) rumliegen hat.
Fakt war btw ist auch das diese riesenchips einfach verdammt teuer in der produktion sind im gegensatz zu den kleineren ATI chips.
Ati müsste mal am kommunikationsproblem zwichen den GPU's arbeiten und mikroruckler einfach´komplett abstellen, dann würde die ganze sache nochmal anders aussehen.

Naja abwarten und Tee trinken bis benchs und vor allem die preise raus sind. Und dann kann man abschätzen was man sich am ende kauft.
 
Antimon schrieb:
Was so viel heißt, wir haben heute den "Leistungs-Idealfall" zu sehen bekommen und es gilt ab zu warten wie sich der Fermi im Alltag schlägt.
Es ist zumindest wahrscheinlich, ja. Es wird sicher Fälle geben in denen Fermi nicht 40% vorne liegt und es wird wohl auch Fälle geben, in denen er noch schneller ist. Im Mittel tendiere ich zu spekulativen +30% auf eine HD5870.
 
AwesomeSauce schrieb:
Natürlich... Hast du das White Paper gelesen?

Was würdest du sagen, wenn dir ein Milliardär anbietete dir sein ganze Geld zu geben, wenn du sagst, dass er dein Lieblingsmensch auf der Welt ist?
Exact das selbe.
Aber nein, das Whit Paper hat nichts mit Marketing zu tun ;)
 
Etwas Gegengewicht zum Charlie-Trashtalk ist immer gut...

Ausserdem: Nvidia hat ebensoviele Grafik-Aspekte bei der GF100 Architektur verbessert, wie GPGPU. Von einer Verschiebung der Zielgruppe zu sprechen, ist wieder mal reine Vermutung...
 
Zuletzt bearbeitet:
Ein Amd Mitarbeiter hat selber gesagt, das er fest damit rechnet das man im Jahr 2010 nicht ewig die Leistungskrone haben wird. Ich bin mir ziemlich sicher das er damit GF100 meinte. Ich finde aber leider nicht mehr die Quelle wo ich das gelesen habe.

Ich schließe mich mal dem Spekulatius an und behaupte, dass das Verhältnis GTX380 vs. HD5870 in etwa so aussehen wird wie: GTX280 (GTX285) vs. HD4870. Und wenn das so sein sollte sehe ich kein Problem für AMD. Man geht mit dem Preis runter wie bei der HD4800er Reihe und fertig. Im gegensatz zu Nvidia haben sie schließlich auf der Habenseite eine sehr viel kleinere Gpu.
 
Bevor der Thread geschlossen wird: Was bedeutet eigentlich der Name "Fermi" ?
Ist das die Namensgebung eines aufschlagenden Kometen ?

Edit: @ Whoozy

Eher das Verhältnis GTX295 vs HD4890
 
Zuletzt bearbeitet:
Fermi ist der Codename der Architektur, GF100 ist der Codename der GPU, GTX3xx der wahrscheinliche Name der Karten...
 
Am besten gefällt mir die Erklärung: Der Codename eines Grafikprozessors von Nvidia.
Darauf wär' ich wirklich nicht gekommen, vielen Dank für's explizieren :-) !!!!
 
Man nehme einen Kubus förmigen Raum, lege diesen komplett mit 3D Monitoren(ohne Ränder, 3D ohne Brille, extrem hohe Auflösung pro Monitor) aus, Glasscheibe drüber(damit man drauf laufen kann). Im Hintergrund die massive Rohleistung eines GPU Clusters, der das gezeigte Raytraced damit es auch perfekt mit den zig Millionen Kernen skaliert. -> Holodeck 1.0

Was, wie? Wo waren wir, ach ja bei Fermis unendlichen Potential und 3D Vision Surround. :lol:

Wenn man irgend wann mal zurückblickt wird man sagen, ja die CPU war der Anfang im 20. Jahrhundert, super Schreibmaschine und Krims Krams. Wer hat uns im 21. Jahrhundert ins digitale Zeitalter geführt -> GPU bzw. GPU Cluster...

Ne mal im Ernst super Artikel @CB.
 
Zuletzt bearbeitet:
@ Whoozy

in Anbetracht deiner luschigen 8800GTS müsste dich das Verhältnis doch freuen;-)
 
In Gegensatz zu dir kann ich objektiv bewerten wenn es um AMD/Nvidia geht ;). Ein Fanboy sein ist wirklich uncool, ich bemitleide dich wirklich.

Und meine luschige 8800gts macht seine Arbeit gut.

EDIT: Dabei war ich doch so höflich und habe dich Nvidia Ahänger genannt ;).
 
FarCry 2 Benchmarks gibts ja bereits (die in Anwesenheit der gesamten Presse erstellt wurden):

GF100-42.jpg

Quelle:http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-13.html (Bitte die Bemerkungen zu den Tests lesen!!!)
As you look at the charts below, you will notice that we added in “simulated” HD 5870 1GB results and there is a story behind this. NVIDIA was very forward with us and revealed the specifications of the test system they were running: a stock Intel i7 960, 6GB of 1600Mhz memory and an ASUS Rampage II Extreme motherboard running Windows 7. While we weren’t able to copy the exact same system, we did our best to replicate it by using the exact same CPU and OS while estimating the memory latencies and using a Gigabyte X58-UD5 motherboard. The result? Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.

Diese Leistung wäre absolut in Ordnung und durchaus im Rahmen des Möglichen.
 
Sun_set_1 schrieb:
Was ich immer wieder interessant finde ist diese These das Fermi für den Verbaucher ja so unglaublich Teuer wird. Und was ich viel interessanter finde, wie viele 100000000 Leute das so aufgrabschen.

Sagen wir mal die Ausbeute ist wirklich schlecht und liegt bei dem Faktor 0,5 bis 0,7 gegenüber dem GT200 (Aufgrund der Größe) (ATI Vergleiche hier völligst unangebracht) was bedeuten würde für den Verbrauche steigen die Produktionskosten je Die um 1,5 bis 1,8.

Soweit so gut. Aber wie hoch sind noch mal die Produktionskosten eines Die im Vergleich zum Endpreis für den Verbaucher? 3 oder 4 % des Gesamtpreises ? Oder noch weniger ??

Überhaupt kein Grund da von 200€ Mehrkosten zu sprechen. Einen solchen Chip würde Nvidia niemals produzieren da die Nachfrage, bei einer Karte die 700€ oder mehr kostet, so drastisch einbrechen würde dass die den Break-even-Point in 20 Jahren erreichen.

Das weiß Nvidia ebenso oder glaubt ihr etwa alle Nvidia denkt sich

"wir machen da jetzt mal einen Chip mit dem wir definitiv Verluste verbuchen nur um ATI mal die Grenzen aufzuzeigen"

Im Endeffekt wird die Karte 10, maximal 20 Euro an Mehrkosten aufweisen (was mE nach als pro Stück noch viel zu hoch kalkuliert ist, vllt 5 Euro).

Das Problem, wenn TSMC seine Lieferzusagen und Produktionsversprechungen nicht einhalten kann (was immo ATI Gegenüber ein Problem ist) schlägt sich nicht in ATI's oder dann bald Nvidias Produktionskosten nieder, sondern in denen von TSMC! Das ist allein deren Bier wenn die ihre Fertigung nicht in den Griff kriegen.


Über die Leistung lass ich mich nicht aus da Niemand die Karte bis jetzt kennt.

Nur diese ganzen Besserwisser hier, die glauben das sich bei Nvidia noch kein Mensch Gedanken über Größe, Yieldrate, Ausbeute, Verfügbarkeit usw. us.f gemacht hat und hier meinen es besser zu wissen haben'se einfach nicht mehr alle aufm Zaun, sorry aber ist meiner Meinung nach so.
Ach deswegen ist der Preis der G200 Karten mit erscheinen der RV770 Karten so drastisch abgerutsch und deshalb wurden bei den relativ schnell erscheinenden G200b Karten so drastische einsparmaßnamen unternommen. (zig redesigns des PCB, kastrierte Spannungswandler, im Vergleich zum G200 Backplate wegrationalisiert)
Gerade bei der Preeisgestaltung ist nder vergleich zur Konkurrenz von ATI sehr wohl angebracht, denn auch beim GF100 ist nicht nur der Chip deutlich komplexer und teuerer in der Herstellung sondern auch das PCB, weshalb nvidia höchstwarscheinlich keinen Preiskrieg anfangen sondern seine Progukte eher ins Preisgefüge einordnen wird. Schließlich hat ATIs Produktpalette dann bereits einen Vorsprung von gut einem halben Jahr.

Was auch immer wieder gern ignoriert wird.....der letztendliche Verkaufspreis wird nicht nur von nvidia vorgegeben sondern die Händler haben auch noch ihren Anteil daran.
 
Zurück
Oben