News Nvidia GF100 „Fermi“ gesichtet und mehr

Status
Für weitere Antworten geschlossen.
LuXon schrieb:
chaosPit:
Wie schon die vorredner angemerkt haben, ist die angabe so, dass auch jedes China-Netzteil (steht 600W drauf, liefert aber 400W ohne dass es abraucht) das verkraften kann.........
Ist das wirklich so schwer zu verstehen?

Mal ehrlich - meinst du wirklich das ein Durchschnittskunde, der auf der Suche nach etwas Neuen ist, sich soweit in der Materie auskennt?
Der sieht nur diesen Papperl, vergleicht das dann mit einem aktuellen Modell von z.B. ATI oder einer anderen nVidia Karte, überschlägt grob die Daten, die auf seinen Netzteil stehen oder die er kennt und dann? Richtig, in den meisten Fällen entscheidet er sich für eine Alternative.

Ich kenne solche Situationen zur Genüge aus meinen Bekannten- und Berufskreis. Wenn Zahlen nicht annähernd zusammen passen, wird eben eine andere Lösung gesucht.

Manchmal kommen dann solche Einkäufe bei raus, wo sich der Händler freut, dass er wieder eines von den Super 1k Watt Netzteilen verkaufen durfte und der Kunde wundert sich dann zu Hause ;).

Ne ne - da muss noch viel an der Front gemacht werden, damit das alles mal stimmig wird.
 
DDM_Reaper20 schrieb:
@ Sirius5

Du glaubst doch nicht wirklich, dass nVidia dieses Spielchen nur spielt, weil sie Angst haben, ATI könnte was abkupfern und verwenden, BEVOR Fermi rauskommt??

Das würde voraussetzen, dass sie binnen 2-3 Monaten aufgrund von, sangwerma, einer zufällig aquirierten Karte einen Technikvorsprung erkennen, die Technologie dahinter auswerten, ihrerseits nutzen und in einem Produkt einsetzen könnten. :lol:

Völlig unmöglich.

Ich habe schon Pferde kotzen sehen und das direkt vor der Apotheke ;).


PS: Nichts ist umöglich, gerade in solchen Bereichen.
 
hm, das ist auch mal was neues, kotzende Pferde vor eine Apotheke...^^


gruß
 
Viele Leute hier vergessen das der Fermi ausschließlich erstmal nur für den Enthusiastenbereich kommt; Mainstream wird überhaupt nicht bedient werden!

Ich zitiere mich also einfach mal selbst:

"...wird doch davon geredet das der Fermi erst einmal NICHT im Mainstreamsegment kommt, Zitat NVIDIA CEO "Our current-generation GPUs are fabulous and all the things that mainstream consumers would use their computer for. […] I think the mainstream GPUs are really fabulous and has been enhanced recently with some really great features and so my sense is that they are going to continue to do quite nicely in the marketplace.".

http://www.tomshardware.com/de/Mainstream-GPU-Nvidia,news-244039.html "

So, was juckt mich ne Graka die direkt mal 600 Euronen kostet?! Schlimm finde ich das Nvidia der Meinung ist das die ollen DX10 / 10.1 Gurken ABSOLUT ausreichend sind und sie dahingehen "fabelhaft aufgestellt sind"... *lol*

Jungs (Mädels), dass kann doch nichts werden! ATI liefert derzeit in JEDEM Preissegment irgendeine aktuelle Graka und bei NV heißt es "Die ollen Dinger reichen den Kunden weil wir einfach umlabeln!".

Das ist Bullshit und die Freude Einiger auf den Fermi wird wohl recht schnell in Ernüchterung umschlagen (alleine wg dem Preis und eben KEIN Mainstream fürs Erste).
 
Zuletzt bearbeitet: (Link zu THG "geflickt")
ich finds eigentlich am schlimmsten, dass man DX11 dem Mainstream und Perfomance Bereich vorenthält und er nur dem absoluten High End Kunden vorbehalten bleiben soll.


gruß
 
Hat schonmal jemand die neue CT gelesen? Da wird über die Probleme beim Fermi geschrieben. Die scheinen dieselben Recherchen betrieben zu haben wie Charlie, denn dort steht unter anderem:

Mit seinem A3-Step ist er (damit ist der Fermi gemeint) aber auch noch in einem recht jungen Stadium. Intel bringt zum Teil die Prozessoren erst im E-Step auf den Markt.

Aber die CB Redaktion darf sich wohl nicht dazu äußern, wie Charlie sagt:

Last week, several sites contacted SemiAccurate saying that Nvidia called them and threatened to cut them off if they linked to the above story.

Mit "the above story" ist der Bericht über die Probleme beim Fermi gemeint. Da wundert mich die Berichterstattung hier langsam nicht mehr. Auch wenn jetzt doch der Fermi auf der angeblich "toten" Cebit auftaucht und sich CB natürlich gleich wieder draufstürzt. Seit Monaten werden hier die Probleme beim Fermi einfach unter den Teppich gekehrt und die Leute davon abgehalten, ATI Karten zu kaufen. Probleme sind da, dass kann hier keiner verleugnen, sonst wären Fermi Karten längst erhältlich. Sowas könnte man dann schon fast Wettbewerbsverzerrung nennen, wenn man böse sein möchte. Aber das sind wir ja von den großen, bösen Unternehmen wie Microsoft, Nvidia und Intel gewohnt. Nicht umsonst wurden diese Firmen in den letzten Jahren mit hohen Strafen belegt. Kann man nur hoffen, das CB von den Lesern nicht bestraft wird. Die erwarten nämlich eine objektive Berichterstattung. Die ist nun seit einiger Zeit meiner Meinung nach nicht mehr gegeben.
 
@ derschlambi:

Ja, habe ich... Deswegen freue ich mich hier auch so über das getrolle... ;)

Ich stehe ja mehr auf Druckwerk (c't -> heise), die halten sich in der Regel mit der "Gerüchtestreuung" zurück und bringen nachvollziehbare Fakten.
 
600 Watt ist vielleicht etwas zu viel, es sei denn das Teil hat die 5-fache Leistung einer ATi Radeon HD 5770 ???

nVidia wird erhebliche Probleme bekommen, wenn die neuen GTX 470/480 wirklich solche Stromfresser werden. Außerdem muss die Preisleistung stimmen! Es ist ziemlich unsinnig, sich eine 300-500 Euro teure Stromfresser-Karte einzubauen, wenn man für 250 Euro ATi Crossfire mit 2x HD 5770 bekommt.
Da der Fermi-Chip in 40 nm gefertigt wird, dürfte die Stromaufnahme auf dem Niveau einer GTX 275 mit 55 nm liegen. Diese braucht ungefähr 100 Watt mehr, wie eine HD 5770 bei ungefähr gleicher Leistung. Dem zur Folge spart der Schritt zu 40 nm irrsinnig viel an der Leistungsaufnahme, was durch mehr Transistoren wieder ausgeglichen wird. Für eine GTX 275 wurden auch schon 550 Watt NTs empfohlen! Braucht kein Mensch, da der Systemstromverbrauch selbst unter Volllast nicht die 250 Watt überschreitet, es sei denn man nutzt SLI und exzessives OCen.

Die GTX 470 auf den Photos sieht so aus, als ob sie 1280 MB Videospeicher besitzt, während die GTX 480 1536 MB aufbringt, was 20% mehr entspricht! Preisleistung???

MfG

McDaniel-77
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Hallo zusammen,

also Heise ist es gelungen, sich eine Karte zu ergattern und diese sogar zu zerlegen! Hier der Link:

http://www.heise.de/newsticker/meldung/GeForce-GTX-480-Fermi-Grafikchip-fotografiert-944353.html

Dem Artikel sind auch Informationen zu dem Chip selbst zu entnehmen, er wurde auch vermessen incl. Bild.

Grundsätzlich gebe ich auf Heise bzw. die C`t weit mehr, als die sogenannten sonstigen Möchtegern-Profiseiten bzw. Blätter.

So long....


Sehr interessant der Artikel, dazu noch die aktuelle c't und man liest was vom derzeitigen A3-Stepping (der Chip bei heise hat das A2).

Wir dürfen alle gespannt sein... ;)
 
Hallo zusammen,

@ Spawn81

Ganz genau. Und wenn man mal bedenkt, daß die nicht mit dem A3 Chip auf der Messe aufwarten, sollte das schon ziemlich zu denken geben, wie ich Persönlich denke.

Alles in allem hat sich bis jetzt bestätitgt, was es an Gerüchten seit November 2009 so zu Hören gab hinsichtlich des Fermi. Nahezu alles trifft zu.

Sogar der Zeitpunkt wann es den Chip geben wird, nämlich Ende April, Anfang Mai wohl evtl. sogar erst.

Alles in allem glaube ich, daß der Fermi im Verhältnis von Preis und Leistung ein Rohrkrepierer wird. Vom Verhältnis "Leistung/Stromverbrauch" ganz zu Schweigen, was auch schon Ende November zu hören war.

@ McDaniel-77

Sorry, was du hinsichtlich des Stromverbrauchs fabulierst, kannst du schon vergessen. So wie es aussieht, wird Nvidia die Chips nur kastriert ausliefern, um den Stromverbrauch zu begrenzen! Das wurde auch immer wieder von Lieferanten tangiert und scheint sich jetzt zu bewahrheiten, wie so vieles andere auch, was immer als Gerücht abgetan wurde.

Was den Preis angeht, waren Listungen für den größten Chip in Höhe von ca. 600 Dollar gelistet. Ich kann dir jetzt aber nicht mehr die Quelle Sagen, ich hatte das nur am Rande mit verfolgt, weil mich diese Info-Stückelung von Nvidia anwiedert.

So long....
 
Zuletzt bearbeitet:
Hallo zusammen,

@ Lübke

Also so wie ich den Artikel lese, hat Heise eine Karte mit A2 Chip zerlegt. Wenn die einen mit A3 Stepping zerlegt hätten, würden bzw. hätten die das geschrieben.

Soviel Seriosität sollte man Heise.de schon zugestehen, wie ich finde. Lies dir den Artikel nochmal genau durch, für mich liest es sich eindeutig, wie wenn die auf der Messe selbst trotzdem ein Modell ergattern konnten, welches eben nur A2 Revision hatte, wie zu Sehen ist.

So long...
 
Zuletzt bearbeitet:
@Lübke

Nur, wenn ich mir das Netzteil wegen der Graka geholt hätte. Dem war leider definitiv nicht so. Wer holt sich bitte ein 600+ Watt Netztel für eine 7950 GT? Zudem weiß ich zwar nicht, was damals als Minimum angegeben war, aber bestimmt kein 600 Watt Netzteil ;)
 
@Luxmanl525: das hab ich schon verstanden, aber ich glaube, du mich noch nicht so ganz.
heise erhält ein sample zum zerlegen. offenbar ein älteres a2. warum schließt du daraus, dass die samples, die auf der messe tatsächlich im einsatz sind, nicht a3 sein können? wenns ums zerlegen und abfotografiren geht, ist imho wohl klar, dass das älteste, schlechteste exemplar genommen wird und keins, dass hervorragende leistung abliefern kann. ;)

mit andern worten: dass das exemplar von heise ein a2 war, hat imho überhaupt keine aussagekraft über die revision der tatsächlich im einsatz befindlichen exemplare.

und ganz nebenbei: heise halte ich für sehr seriös und glaubwürdig ;)
 
Hallo zusammen,

@ Lübke

Hier der Text von Heise.de aus dem Artikel:

"Im Rahmen der CeBIT zeigen einige von Nvidias Boardpartnern aber bereits lauffähige GeForce-GTX-480-Systeme – der Blick auf die arbeitenden Karten ist allerdings durch ein geschlossenes Gehäuse versperrt.

Dennoch ist es heise online gelungen, eine GeForce GTX 480 in die Hände zu bekommen, auseinanderzubauen und bereits einen Blick auf den Grafikchip zu werfen."


Für mich impliziert dies in keiner Weise, daß in den anderen Vorführkarten A3 Steppings werkeln. So wie ich den Artikel lese, hat Heise eine Vorführkarte ergattert, kein spezifisches Sample. Das hätten die mit Sicherheit entsprechend heraus gestrichen bzw. betont.

Wenn Nvidia tatsächlich auch A3 Steppings bei der Messe als Vorführkarten werkeln läßt, wäre es ja leicht für diese, heraus zu bekommen, von wo Heise diese Karte hat. Ein Grund mehr, weshalb ich nicht glaube, daß sich jemand in solch gefährliches Fahrwasser begibt, als Hersteller wohlgemerkt, von welchem Heise die Karte hatte.

Der Text ist für mich eindeutig dahingehend, daß nur A2 Karten auf der Messe im Einsatz sind. So liest es sich für mich jedenfalls, erst Recht unter Einschluß der sonstigen Argumente.

So long....
 
Lübke schrieb:
mit andern worten: dass das exemplar von heise ein a2 war, hat imho überhaupt keine aussagekraft über die revision der tatsächlich im einsatz befindlichen exemplare.


Aber laut heise / c't soll eben auch jenes A3-Stepping nicht wirklich Final sein, nicht umsonst wird davon gesprochen das Intel z.B. die Prozzis gerne erst im E-Stepping auf den Markt wirft...

Soll heißen: auch ein A3-Stepping kommt heise / aktuelle c't sehr strange vor.
 
um jetzt nicht alles durcheinander zu bringen: laut diversen gerüchten soll a3 bei fermi aktuell sein. a2 war angeblich ein fehlschlag.
weitere gerüchte besagen, das u. u. ein b1 notwendig sein wird, dass es aber eben derzeit noch nicht gibt (da ja a3 angeblich aktuell ist)
heise sagt, dass a3 eine sehr frühe revision für einen chip ist, in relation z. b. zu intels cpus, die erst in der e-revision auf den markt kommen.

ihr schließt jetzt aus dem heise-exemplar, dass die gerüchte zum stand der aktuellen revision (a3) nicht zutreffen. das hat heise aber weder gesagt noch wiederlegt. das ist alles was ich damit sagen wollte.

natürlich können die lauffähigen samples auf der cebit auch noch "alte" a2 sein. genausogut können diese aber auch schon im angeblich noch nicht existierenden b1-stepping sein.
 
Lübke schrieb:
ihr schließt jetzt aus dem heise-exemplar, dass die gerüchte zum stand der aktuellen revision (a3) nicht zutreffen.

Ich schließe auf gar nix, ich gebe nur wieder was ich weiß / gelesen habe... ;)
 
Hallo zusammen,

@ Lübke

Sorry, ist nicht böse gemeint, aber ich gebe eigentlich nur wieder, was ich gelesen habe. Und von einem A3 Chip ist nirgends ein Wort zu Finden in dem Artikel. Und so wie ich die von Heise.de kenne, nicht ohne Grund.

Ansonsten sind die Steppingstufen von CPU`s und GPU`s mit Sicherheit nicht zu vergleichen. Meine Geforce 8800 GTS 640 hat z. B. ein A3 Stepping, welches das letzte Stepping war, in welcher diese Karte gefertigt wurde, gleichzeitig war dieses Stepping das ausgereifteste für diese Karte. Die Karte ist damals im A2 Stepping auf den Markt gekommen.

Dies jetzt nur mal als Vergleich, was ich nicht unbedingt jetzt als Maßstab für den Fermi nehmen will. Aber wenn man das mal vergleicht, impliziert dies durchaus, daß Nvidia wohl mit einigen Problemen zu kämpfen scheint.

So long....
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben