News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
mediamaxx schrieb:
Alleine wegen diesem Geschäftsgebaren werde ich 100% auf ATI wechseln, so was werde ich garantiert nicht unterstützen.

Joar, das ist die richtige Einstellung. Nur so kann man den Konzernen seine Unzufriedenheit zeigen. Leider interessiert das die wenigsten :(

@Evader: OK, dann habe ich dich nur falsch verstanden :)

So gesehen hast du recht. Objektivität kann man natürlich nicht beweisen, aber seine sämtlichen anderen Artikel (ohne NVIDIA-Bezug) scheinen MIR sehr objektiv zu sein.
Warum sollte das dann bei NVIDIA anders sein? Ein gewissen sarkastischen Unterton haben diese Artikel natürlich (bezüglich NVIDIA), aber über die Objektivität sagt das wenig aus, IMO. Ist halt sein Schreibstil, den ich zufällig ziemlich gut finde.



Können ja mal ne kleine "Wette" machen:

Hier gibts zwei Infos. Zum einen bezüglich der Die-size des GT300. Zum anderen wird ausgesagt, das der GT300 einen NVIO-Chip benötigt, um die Video-out-Fähigkeiten bereit zu stellen.

Wenn sich diese Vorhersagen bewahrheiten, gibst du mir ein virtuelles Bier aus, wenn er falsch liegt, bekommst du zwei von mir.

Eins kriegst du jetzt schon:

:schluck:

;)
 
Zuletzt bearbeitet:
@Evader: OK, dann habe ich dich nur falsch verstanden

Dann is ja alles tutti. :schaf:

Zum anderen wird ausgesagt, das der GT300 einen NVIO-Chip benötigt, um die Video-out-Fähigkeiten bereit zu stellen.

So wie ich das verstanden habe, wird nur der "volle" ergo "biggest" GT300 einen NVIO haben, die anderen nicht.
Wir werden sehen. :)
 
Arbiter Elite schrieb:
Nach der anfänglichen Euphorie macht sich Ernüchterung breit. Nvidia nutzt wieder einmal schmutzige Tricks um in die Suppe von AMD/ATI zu spucken...

Noch ist nichts bewiesen, außer dass es unzählige Halbwahrheiten/Gerüchte im Netz gibt, die kaum bestätigt sind.
Wer im nächsten Rennen als Sieger hervorgeht, vermag aktuell noch niemand zu sagen! :freak:

Ich denke, dass Highend-Freaks mit Nvidia am besten bedient sein werden und der "Normalo" mit ATI am besten bedient sein wird!
 
Zuletzt bearbeitet:
Na die Nachricht ist aber nicht neu und wird hier im Thread ja massiv diskutiert... ;)
Es gibt aber dennoch genügend Optimisten, die mit der GT300 noch dieses Jahr auf dem Markt rechnen.
Es müsste schon mit dem Teufel zugehen, wenn sie zur Zeit nicht mal ein Testsample haben und mit Atrappen zu Präsentationen fahren...
 
Monströß das Gerät. (nach Papier)

Stellt sich eben die Frage:

Rechnet es sich, nur einen Chip fürGPU-Computing und Grafikberechnung zu entwickeln und produzieren, statt auf 2 getrennt Entwicklete Chips zu setzen.
Warscheinlich ist es für Nvidia einfach eine Kostenfrage.

Die Tests werden es zeigen. Vielleicht entwickelt NV ja für das Nächste mal etwas "Modulare", einen Hauptkernteil und dann je nach Anwendungsbereich wird eben der GPU-Computing oder Spiele Krams dazu gepackt. (Wenn es sich rechnet)

Bin gespannt auf erste fertige Modelle und interessiert in beiden Bereichen. (Ist einfach interessant.)
 
Turbostaat schrieb:
@Antimon
Und was ist daran so besonders? Ist doch absolut nichts neues das Chips jahrelang entwickelt und geforscht wird und man eine neue Arccitektur nicht innerhalb von 1-2 Jahren macht.

Sagte ich, dass es was besonderes ist? Nein!
Sagte ich, dass dies in irgend einer Form negativ ist? Nein !

Ich hab einzig und allein die Tatsache in den Raum gestellt, dass Nvidia anscheinend bereits seit 4 Jahren an dem Chip entwickelt und eben eine Quelle dazu gepostet, da es sich hier um den Fermi/GT300 Thread handelt und ich der Meinung war, dass es evtl. den einen oder anderen interessieren könnte :rolleyes:
 
meine fresse was hier an datenmüll produziert werden kann xD

ich hab jetzt mal ein paar seiten durchgelesen, dass einzige was ich gefunden habe sind oft nvidia und ati fanboys die sich gegenseitig bekämpfen. der digitale krieg ist ausgebrochen in einem forum bei CB xD

meine güte WARTET doch mal ab BIS BEIDE ihre karten VORGESTELLT haben. dann könnt ihr vergleichen bis der arzt kommt!

diese theorien und herumspekulationen bringen echt keinem was!

ich warte mal gespannt auf die nvidias. dann noch 2-3monate warten bis alles nachteile der karten offen widerlegt worden sind und ERST DANN kann ICH zumindest entscheiden, welche karte meine nächste wird. vlt wirds ja wieder ein flop wie die 9000er serie, dann warte ich lieber nochmals ne generation...

greez
 
das ist allerdings genau das,was Nvidia will, dass alle warten und keiner Radeons kauft und AMD somit keinen Vorteil durch den früheren Release zieht.^^


gruß
 
Keine Ahnung ob das schon wer gepostet hat aber hier: http://www.gamestar.de/hardware/news/grafikkarten/1959414/nvidia.html
Bill Daily von Nvidia hat laut cnet gegenüber Investoren weitere Aussagen zum neuen Fermi-Grafikchip getroffen. Viele der neuen Features des Chips seien dafür ausgelegt, Anwendungen zur Video- oder Bildbearbeitung als Co-Prozessor zu beschleunigen. Das sei zwar zurzeit noch ein recht kleiner Markt, doch Daily ist überzeugt, dass sich im Laufe der Zeit ändern und damit Nvidia einen großen Vorsprung in diesem Bereich bescheren wird.

Zur Tatsache, dass der Fermi-Chip als Supercomputer-Chip und nicht als Spiele-GPU wahrgenommen wurde, sagte Daily, dass man nur eine gewisse Fläche im Chip belegen und sich dabei nur eine bestimmte Menge Energie verbrauchen dürfe. Einiges davon sei für Bereiche vorgesehen, die bei Spielen weniger Nutzen bringen als bei Berechnungen. Aber der Fermi-Chip könne herunterskaliert werden und auch wenn man momentan nicht über weitere Chips sprechen wolle, könne man sich vorstellen, dass man für Spiele-Karten weniger als 512 CUDA-Cores und pro Core auch weniger der neuen Features einsetze. Alle Fermi-Produkte, einschließlich der Spiele- und Workstation-Produkte würden in einem nah beieinanderliegenden Zeitrahmen angekündigt.

Damit bestätigt Daily die Erwartungen, dass der Fermi-Chip in der zunächst präsentierten Form für Spiele-Karten abgespeckt wird, da viele der Funktionen dort einfach wenig oder keinen Sinn machen. Eine Einschätzung der möglichen Leistung gegenüber der ATI Radeon HD 5870 ist aber auch weiterhin nicht möglich.
 
Genauso ist es Einschätzung der möglichen Leistung gegenüber der ATI Radeon HD 5870 ist aber auch weiterhin nicht möglich.
Shätzen kann man aber schon:)
Meine Schätzung
GTX360 langsamer als 5870
GTX380 schneller als 5870
GTX395 schneller als 5870X2
 
@terraconz: endlich zwischen dem ganzen nvidia-gabashe mal wieder ein sinnvoller beitrag :)

demnach würde es sich bei dem präsentierten chip wohl tatsächlich um einen reinen tesla-chip handeln und die gpu dürfte deutlich kleiner ausfallen. eigentlich schade, dass die features nicht bei einer gtx360 verfügbar sein werden. das wäre für mich ein kaufanreiz gewesen, da ich weniger spieleperformance als viel mehr andere "technische spielereien" suche^^
programmieren auf der gpu wollte ich immer schon mal ausprobieren... ok das geht schon ab der gf8, aber bisher konnte ich mich noch nicht zum kauf einer so teuren karte durchringen...
 
Shätzen kann man aber schon
Meine Schätzung
GTX360 langsamer als 5870
GTX380 schneller als 5870
GTX395 schneller als 5870X2

wo ist denn bitte der Sinn einer Schaetzung, wenn man nicht ueber ausreichend Fakten verfuegt um diese zu untermauern?
natuerlich kann es so sein, kann aber genauso gut sein, dass die Karten viel schnell sind oder auch langsamer wie terraconz bereits angedeutet hat... wartet es doch einfach ab anstatt hier 55 Seiten mit nichts zu fuellen!
das ist nichts als Kaffeesatzleserei - wobei das auf mehr Tatsachen beruhen duerfte...
 
Wäre peinlich für nvidia wenn sie 3-4 Monate nachdem die ersten 5870 Karten verfügbar waren, dann eine Karte rausbringen die langsamer ist.
 
Wie auch immer das nun genau war mit den features zur DX10 Einführung, der hier relevante Fakt bleibt doch dass ATI es schon damals eingebaut hat und Nvidia eben nicht. Somit sollte ATI einen gewissen Erfahrungsvorsprung haben was große Teile von DX11 anbelangt.

Und wenn Nvidia für ihre Präsentation Fakes nutzen muss dann spricht das doch auch sehr dafür dass man noch weit von einem Launch entfernt ist und nach dem ATI Launch halt nur irgendwie versuchen musste auf sich aufmerksam zu machen.
 
Zuletzt bearbeitet:
Statler_Waldorf schrieb:
wo ist denn bitte der Sinn einer Schaetzung, wenn man nicht ueber ausreichend Fakten verfuegt um diese zu untermauern?
natuerlich kann es so sein, kann aber genauso gut sein, dass die Karten viel schnell sind oder auch langsamer wie terraconz bereits angedeutet hat... wartet es doch einfach ab anstatt hier 55 Seiten mit nichts zu fuellen!
das ist nichts als Kaffeesatzleserei - wobei das auf mehr Tatsachen beruhen duerfte...

wenn man keine fakten hat, schätzt man. und wer fakten hat und diese untermauern will, der belegt seine geschichte mit den fakten ;)

wer fakten hat, der schätzt nicht :rolleyes:
 
Ich überfliege diese ganze Fermi Sache nur, aber wieso geht eigentlich niemand darauf ein, dass der Chip kein primärer Spielechip wird?
Wenn nv bei der Entwicklung allem Anschein nach andere Prioritäten setzt, wird die Karte vielleicht als Ganzes interessant, ob die Spieler dann allerdings für ihr Genre die Offenbarung finden?
Möchte damit jetzt nicht irgendwas aussagen, es wundert mich nur wie gesagt.
 
schluckspecht - aber wovon geht man bei dieser Schaetzung aus? denkst du nicht man sollte einen Ausgangspunkt fuer eine Schaetzung haben?
Sonst befinden wir uns naehmlich im Land der Hellseherei...
 
@Schinzie:
das ist allerdings genau das,was Nvidia will, dass alle warten und keiner Radeons kauft und AMD somit keinen Vorteil durch den früheren Release zieht.
das würde ati natülich ganz anders machen. die haben ja nie gerüchte zur ach so überlegenen 2900xtx gestreut, um potentielle 8800gtx-kunden zum warten zu bewegen ;)

@chappy086: das passiert immer wieder mal. siehe gf5, radeon hd2k, radeon hd3k... auch ati kann durchaus mal eine überlegene architektur bringen, an die sich nvidia erstmal über mehr als eine generation ranarbeiten muss. das hat nichts mit peinlich zu tun.

@NoD.sunrise:
wenn Nvidia für ihre Präsentation Fakes nutzen muss
was denn für fakes? nvidia hat einen dummy benutzt. wäre es dir lieber gewesen, wenn sie noch kein designmodel gezeigt hätten?
dann zeigen sie mal was vorab und alle drehen ihnen sofort wieder einen strick draus :rolleyes:
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben