News Nvidias „Fermi“ zur CES 2010?

Status
Für weitere Antworten geschlossen.
Palit/Gainward hat einen echten Glückstreffer gelandet, als sie beschlossen haben, doch kein ATI zu verkaufen. Ob der Verantwortliche seinen Job noch hat?
 
Ach gottchen... Der Fermi wird erst am 6-10 Januar 2010 vorgestellt.
Das ist ja so lange !
Jetzt haben wir schon fast mitte November und darauf folgt der Dezember und darauf auch gleich der Januar. :rolleyes:

In der Zwischenzeit kann man sich ja mit den total überteuerten 5000er-Karten von ATI mit wochenlangen Lieferzeiten begnügen ! :D
Und hoffen das ATI ihre 6000er Serie schon im 2Q des nächsten Jahres ausbringt nachdem sie 5 Monate vorher erst die 5000er vorgestellt haben die erst nächstes Jahr bezahlbar und besser lieferbar werden. :freak:

Also realistisch ist das Erscheinen der 6000er erst Ende 2011 in 32nm.
Mehr kann man wohl nicht dazu sagen.
 
Athlonscout schrieb:
@Azoris

auch im Business Bereich ist das Q4 traditionell am stärksten. Viele Unternehmen und öffentliche Einrichtungen kaufen dann ihre Hardware, wenn sie übersehen, das im laufenden GJ noch Luft ist.

Natürlich, das spüren wir auch sehr stark - aber eben im Businessbereich. Dort sind Gaming Grafikkarten doch recht wenig angesiedelt.
 
Ein großes Problem von nV ist, dass sie im OEM Onboard Markt nicht viel zu melden haben. Das ist Intels Jagtrevier. Selbst im Notebookbereich ist nV arg gebeutelt worden durch fehlerhafte Implementierungen der eigenen Grafiklösungen. Und ATI dominiert im Mid-Range-Bereich durch ein sehr gutes Preis-Leistungsverhältnis. Die Spielegrafikkarten werfen aufgrund des doch recht starken Preiskampfes in den letzten Monaten auch nicht mehr die gewünschten Margen ab. Jetzt noch die fertigungstechnischen Probleme, die den Start der neuen Grafikkartengeneration verschieben und schon ist das Jahr für nV gelaufen.

Bleibt als nur noch die Flucht nach vorne in den wissenschaftlichen Sektor. Zumal die aktuelle Spielelandschaft die zu erwartende Performance einer High-End GTX300 nicht erfordert. Jetzt kann sich ATI mit DX11 - wenn auch nicht wirklich genutzt - in Stellung bringen.

Der nächste Schachzug von nV wird für die weitere Zukunft der grünen Grafikkartenfirma von hoher Bedeutung sein. Dafür will man womöglich die CES als Platform wählen. Sollte nV erst die Low-Mid-Rangekarten der neuen 300er Serie launchen, dann würde das doch bedeuten die Dinger haben so viel Power, dass ein Launch der GTX300 getrost und auch zu gunsten der Femi nach hinten geschoben werden kann.

Frage: Was können wir Ende November zum Fall der NDA dann noch erwarten?
Ergänzung ()

Respekt schrieb:
Ja, nur dumm das man Know-How nicht kaufen kann. :rolleyes:

Dumm nur, dass das sehr wohl geht. Nicht die Firma entwickelt die Produkte, es sind immer die Köpfe dahinter und die kann man selbstverständlich (ein)kaufen.
 
Zuletzt bearbeitet von einem Moderator:
Schaby schrieb:
Ich weis nicht ob der Fermi so ein Überflieger wird wie manche erwarten. Ich befürchte eher das Nvidia technisch zur Zeit ATI nicht das Wasser reichen kann.

Betrachtet man mal die Rohdaten der letzten Serie so sieht das bei ATI so aus das sie mit dem 4xxx Chip alle Leistungsseqment abgedeckt hat( 4870x2;4890;4870;4850...etc. Sie brauchten an dem Chip nur kleine Änderungen vornehmen. Mit dem 5xxx sieht das in etwa gleich aus.

Wie sieht das bei Nvidia aus? Sie haben doch tatsächlich nur 4 (oder 5? :eek: )200er Chips in Karten verbaut (295;285;280;275;260) für den Mid- und Lowrange Bereich mussten sie auf ältere Chips zurück greifen weil der 200er Chip für diese Sparten zu teuer wäre. Das lässt vermuten das Nvidia in die "falsche" Richtung enwickelt bzw. geforscht hat.

Das macht sich wahrscheinlich nun bei der Entwicklung des Fermi bemerkbar. Den wenn man den Gerüchten nur ansatzweise glauben darf, wird das ein wahrer Monsterchip. Was dann absehbar ist das es wieder nur eine Handvoll Karten mit dem neuen Chip gibt der ziemlich teuer sein wird. Das wäre ja auch nicht so schlimm, wenn die Leistung stimmt.

Das große Problem ist nun der Mid- bzw. Lowendbereich. Dafür nun auf den "alten" 200er Chip zurück zu greifen geht nicht, weil der nach wie vor für diesen Bereich zu teuer in der Herstellung ist. Das heißt, entweder überlassen sie ATI diesen Bereich oder sie Boren den noch älteren g92 Chip weiter auf. Und genau da liegt meines erachtens das Problem. Im Highend Top und alles andere wäre veraltete Technik.

Deswegen vermute ich mal, das Nvidia entweder den Fermi ganz neu aufsetzt (deswegen auch so wenige Details) oder sie Entwickeln parallel dazu an einem kleineren und billiger herzustellenden Chip.

Anmerkung: Das alles hier ist meine ganz persönliche Meinung. Ich habe einfach mal 1+1 zusammen gezählt und mir daraus diese, etwas aberwitzige Meinung zurechtgelegt. Also nicht gleich böse werden ;)

Gruß Schaby

das ich hab schon vor einem monat gesagt.

@topic falls Nvidia sich zurück zieht werde ich mir eine Laberee holen ne Radeon kommt mir nicht in die Büchse aber dazu wird es eh nicht kommen Nvidia wird im Dezember kommen wartet nur ab.
 
Dumm nur, dass das sehr wohl geht. Nicht die Firma entwickelt die Produkte, es sind immer die Köpfe dahinter und die kann man selbstverständlich (ein)kaufen.
Nur dumm das Intel die falschen Leute eingekauft hat, das was man bisher von Larrabee gesehen hat war ein schlechter Witz. Es sind auch schon Köpfe gerollt...
 
Und wann setzt endlich ATI voll auf GPGU?

5 Prozent marktanteil bei Profikarten...des is ja ein totaler Witz. ^^

und was habt ihr alle mit den Labaree? Seit wann ist das ne Gamer-"karte"?
 
@Kasmopaya:
Volle Zustimmung. Wenn die Köpfe dahinter wirklich was drauf hätten, wäre da schon wesentlich mehr passiert. Alleine schon die Intel-Grafiktreiber sind der größte Witz und die Magie einer Grafikkarte liegt nunmal zum Großteil im Treiber.

Was aber nicht bedeuten soll, dass die Intel GPUs aber zu was zu gebrauchen wären. :freak:
 
Killermuecke schrieb:
Palit/Gainward hat einen echten Glückstreffer gelandet, als sie beschlossen haben, doch kein ATI zu verkaufen. Ob der Verantwortliche seinen Job noch hat?

AMD hat denen verboten Karten zu machen
 
Achso, das war die Sache mit GDDR5-Speicher auf ner HD4850. Quasi ne Pseudo-4870, da die ja beide nen RV770 haben.

Verbot gerechtfertigt...
 
und was habt ihr alle mit den Labaree? Seit wann ist das ne Gamer-"karte"?
Intel hat selber schon so extreme GPU Killer wie Fear I! laufen lassen. Sie sagen es ist eine tolle GPU, die extrem vom Treiber abhängt und auf viele viele kleine ineffiziente CPUs setzt. ->oh je:lol:

@Respekt
Mir läufts jetzt schon kalt den Rücken runter, werd mir wahrscheinlich einen Arrendale(32nm mit Intel GPU drinne) kaufen + GPU zum Abschalten. Da werd ich dann wieder Kontakt zum guten alten Intel GPU Treiber machen, auch wenns nur im Idle ist -> oh Gott steh mir bei :rolleyes:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben