News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
wird hart für ati, die werden mit preisenkung reagieren was mich wieder freut.
ich vermute das die gt 300 total heiß, folglich laut und teuer werden.
 
http://www.nvidia.com/object/fermi_architecture.html

Hier gibt es noch mehr Informationen über die Architektur. Dabei ist allerdings ausschließlich von GPU-Computing die Rede. Nvidia hat sich somit wohl neu ausgerichtet und wird sich vermutlich mehr auf die Wissenschaft als Absatzmarkt konzentrieren. Anders lässt sich diese Präsentation wohl kaum deuten. Immerhin ist nirgendwo etwas von gamingperformance zu hören/lesen.


Der Webcast lässt sich nachwievor nicht öffnen. Ist hier jemand, der das sehen kann?
 
Nach all der Euphorie sollte man nicht vergessen, dass NV auch nur mit Wasser kocht. Auch wenn sie mehr Know How als ATI besitzen, wird eine HD 5890 2GB OC sehr nah an die GTX380 kommen.
 
w0mbat schrieb:
Lol! Wir haben September 2009 und Nvidia spuckt große Töne über eine Karte die 2010 kommt. Da will wohl jemand verhindern dass zu viele Cypress GPUs verkauft werden, und das mit einem Papiertiger.

Alle schreien immer Paperlaunch, aber Papervorstellung ist jetzt cool? Bisher hat man immer alles geheim gehalten, bis zum Lauch (soweit es eben ging). Nun kündigt man schon Monate im Voraus an...

Hast Du eine verlässliche Quelle für Deine Behauptung?

Mein Kenntnisstand ist Ende November/Anfang Dezember.


Die Daten lesen sich sehr gut, obgleich eben nicht die techn. Daten zu 100% bekannt sind. Die Veranstaltung stand ja seit Ankündigung unter dem Motto CUDA und neueste GPGPU-Entwicklung. Von daher wäre wohl die vorrangige Präsentation der reinen "Gamer-Karte" hier nicht angebracht gewesen. Abzuwarten bleibt, ob die Consumer-Karte(n) wirklich mit all den Features kommen werden. Denn was nützt mir diese Karte(selbst als Midrage) mit all ihren Funktionen, wenn Spiele flüssig zu berechnen lediglich ein Abfallrodukt für sie darstellt?
 
Ich unterbreche eure Spekulationen, Hoffnungen und Diskussionen ja nur ungern, aber sind den niemandem die Sprachlichen Mängel aufgefallen, das "sie" das inzwischen korrigiert wurde und das hier:
Als Besonderheit geben die Kalifornier hat, dass man es geschafft hat, die Double-Precision-Leistung im Optimalfall ....
Was ist den Bitte das ? Lieber Herr Rißka ?

MfG
 
Zuletzt bearbeitet: (Die eigenen Sprachlichen Mängel ^^)
bei soviel euphorie bin ich mal gespannt was da wirklich dabei rumkommt.

ich sag nur "the future is fusion".
 
Das, mein lieber Freund, kannst du nicht wissen...
 
Irgendwie muss ja die fehlende Tessalation Einheit für DX 11 ausgeglichen werden. Und das geht nur mit purer Rechenleistung.
Dann müssen die Chips auch mit Strom versorgt werden, der Verbrauch wird verdammt hoch sein, 40nm hin oder her. Was der 55nm Prozess bei nvidia gebracht hat sieht man ja.
 
oh, das ist mal was anderes. doch was wird das in grafikleistung ausmachen, und vor allem.. was soll dieses monstrum kosten?

versteht mich nicht falsch, aber AMD/ATI hat eine grafikkarte gebaut, aber das hier ist zusaetzlich auch noch eine grafikkarte. warum nur schweigt sich NVIDIA ueber die reale grafikleistung fuer aktuelle spiele aus? jetzt mal butter bei die fische!
 
Nabster schrieb:
Das, mein lieber Freund, kannst du nicht wissen...

Spätestens mit den Nextgenkonsolen (PS4, Xbox 3 etc.) wirst du es auch einsehen. Alles deutet auf eine All-in-One Hybridlösung hin. Die eiermilchlegende Wollsau.
 
wenn die priese so bei 300-350€ bleiben bin ich nicht abgeneigt mir da wieder so eine zukaufen, ich deneke die Karte schon mehr leistung bitten als die von der ATI wenn ich mir die daten so ansehe.
 
Respekt schrieb:
@Screemer:
Leider ein völlig anderes Gebiet. ;)
ist mir schon klar, dass fusion gpu+cpu auf einem träger wird und der fermi in ne andere richtung läuft. wollte mit dem satz eigentlich eher die euphorie ein wenig dämpfen. hab oben jetzt mal noch nen satz hinzugefügt. die euphorie bei der ersten fusion "vorstellung" war auch riesig und erinnert mich irgendwie an gerade. mich erinnert fermi auch mehr an den larrabee bei dem so viele "revolution, revolution" geschrien haben.
 
Zuletzt bearbeitet:
wamp schrieb:
versteht mich nicht falsch, aber AMD/ATI hat eine grafikkarte gebaut, aber das hier ist zusaetzlich auch noch eine grafikkarte. warum nur schweigt sich NVIDIA ueber die reale grafikleistung fuer aktuelle spiele aus? jetzt mal butter bei die fische!

Nur wo verdienen die Grafikchiphersteller Geld? Genau, bei anderen großen Firmen und nicht bei Gamern. Denn sonst würde AMD/ATi ja da längst Gewinne einfahren, deren Grafiksparte dümpelt aber weiter im Minus rum. Nvidia muss die Analysten und Investoren ruhig stellen, nicht den Gamer und Käufer einer 200 Euro Karte. Der ganze Programmierungs-Kram da wird sicherlich für viele größere Kunden interessant, aber nicht die Zielgruppe, die hier Kommentare postet.

Und zum Webcast: We are aware of some webcast technical difficulties and fixing them ASAP. Apologies for the inconvenience. Posted by: NVIDIA | 09/30/2009 at 01:53 PM
 
Zuletzt bearbeitet:
hö , das wird wohl eher ein überdimensionaler Codeknacker als eine Grafikkarte für 3D Anwendungen...
 
Zuletzt bearbeitet:
Wie gesagt, ich glaube nicht dass das Teil eine pure Gamer-"G"PU wird.
Bis zum Release dauerts sicher noch lange.
 
NV muß nicht 50 oder 100 % schneller als AMDs 5xxx sein, fakt ist sie werden <25% schneller sein.

Warum sollten sie so einen großen Leistungssprung machen jetzt wo bei AMD die Katze aus dem Sack ist, die werden den Teufel tun und uns die Mehrleistung in kleinen Häpchen immer und immer wieder teuer verkaufen ;)
 
Volker schrieb:
Nur wo verdienen die Grafikchiphersteller Geld? Genau, bei anderen großen Firmen und nicht bei Gamern. Denn sonst würde AMD/ATi ja da längst Gewinne einfahren, deren Grafiksparte dümpelt aber weiter im Minus rum. Nvidia muss die Analysten und Investoren ruhig stellen, nicht den Gamer und Käufer einer 200 Euro Karte. Der ganze Programmierungs-Kram da wird sicherlich für viele größere Kunden interessant, aber nicht die Zielgruppe, die hier Kommentare postet.

Wodurch man zum Schluss kommt die Karte wird ein Rechenmonster aber im Grafiksektor nicht so schnell wie man hofft:freak:
Zumindest erfordert Cache, DX11 und die Berechnung Transitoren wodurch schon einiges drauf gehn dürfte von den 3 Milliaren..

Mal schauen wo es hinführt hofe auf einen schönen Preiskampf^^
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben