News Nvidia GF100 „Fermi“ gesichtet und mehr

Status
Für weitere Antworten geschlossen.
Eine interesannte Aussage im Hexus Video @ 2:40

It's not pushing out to much heat.
Dann wird es wohl hoffentlich doch kein wie so oft spöttisch genannter Thermi, der Fermi. :)
 
1.) war doch klar, diese doofe seite namens "halbgenau" redet das zeug doch grund- und haltlos schlecht.
2.) freu dich aber ncith zu früh, das war kein dauerbelastungstest und damit sicher noch nciht die spitzentemperatur, was das kerlchen im video begutachten konnte.
 
Ich glaube die 2 Bilder der angeblichen,echten Fermi sind zu 100% ein Fake !

Der Lüfter ist viel zu klein,um solch ein Grafikmonster mit 512 Stream Prozessoren und Rießenchip vernünftig zu kühlen und auch das PCB ist viel zu klein geraten,für soviel Technologie,die da in Fermi stecken soll laut den technischen Daten.

Ich glaube das Fermi so ungefähr aussehen könnte,wie eine 9800 GX2.
Allso 28cm Länge,Vollmetallgehäuse für bessere Wärmeabfuhr,ein großer,starker 60'er oder sogar 80'er Lüfter auf einer großen Kupferplatte sitzend,1x6 Pin + 1x8 Pin PCI-E Stecker und bis zu 280 Watt Verbrauch unter Volllast.

Von der Leistung wohl nur 15-20% über 5870 und sicherlich wieder um die 549,00 Euro Einstiegspreis (zumindest für die ersten 6 Monate),um die teure Qualitätsware,bei der teuren Fertigung auch wirklich gewinnbringend verkaufen zu können.

Doch wie ich finde auch ein fairer Preis für das Gebotene.

Wenn man sich eine Nvidia High End Grafikkarte kauft,kauft man da nicht irgendeine Grafikkarte.

Man kauft sich ein Spitzenprodukt,was aus hochwertigsten Materialien gefertigt ist,zeitlos edles Design bietet,mit enormer Leistung überzeugt,viele Extras wie Cuda,Physx & 3D Vision + die besten und aktuellsten Treiber für die neuesten Spiele bietet und einen Spitzen Support wenns mal Probleme mit dem Produkt gibt.

All das muß halt mal irgendwie bezahlt werden,genauso wie auch die sündhaft teure Forschungsabteilung + das Nvidia Spieleoptimierungsprogramm Nvidia meant to be played,sind halt auch alles große Kostentreiber.

Was passiert,wenn man versucht zu billig zu produzieren,aufgrund zu schnellen Preisverfalls,hat man ja bei der GTX 285 gesehen mit den pfeifenden Spannungswandlern.
Ich hoffe doch,dass sowas in Zukunft nicht mehr vorkommen wird.
Lieber ein bisschen mehr zahlen,dafür aber auch was gescheites bekommen,was Jahre hält ohne Probleme zu machen und einen hohen Wiederverkaufswert bietet nach den üblichen 2 Jahren Nutzung.

Deswegen werden Nvidia Grafikkarten immer deutlich mehr kosten,als eine ATI Grafikkarte.
ATI beschränkt sich halt nur auf das wichtigste & wesendliche,zu einem fairen Preis.
Was Sie aber auch wirklich verdamt gut können mit der 5000'er Generation und auch schon mit der 4000'er Generation.

Wenn es aber neben dem Wesendlichen und dem Wichtigsten gerne noch ein bisschen mehr sein darf und man gewillt ist,für diese Extras auch einem dementsprechenden Aufpreis zu zahlen,führt kein Weg an einer Nvidia Grafikkarte vorbei.
 
Zuletzt bearbeitet:
Wir sind gespannt, welche Informationen wir vor oder hinter verschlossenen Türen die kommenden Tage noch zu Nvidias GF100-GPU in Erfahrung bringen können werden.

Und ich erst mal, will auch langsam mal genaueres Wissen wollen, wie der Chip auf gebaut ist, was er kann, was er kosten soll, wann VERFÜGBAR besonders ect.

Zotec Rechner sieht aber auch gut aus, wenn es wirklichso ist was drauf steht^^ SLI
 
@Thomson1981
Ist das jetzt ein völlig ironischer Text gewesen? Selten so viel Unsinn gelesen. DU hast wohl keine Ahnung wie viele auch mit nVidia Treibern Probleme haben? Was soll an einer nVidia Karte hochwertig oder besonderes sein? Wo ist da die hohe Qualität der Karten? Da ist rein gar nichts besser oder schlechter als bei ATI. Und was bitte hat der Fermin für eine tolle neue Technik? Das ist ein Chip wie jeder andere, nur eben viel zu groß. Und was zum Geier soll das PCB mit der Technik auf dem Fingernagel großen Chip zu tun haben? :freak:

Und noch was.... PhysX gibt es aktuell bei nicht mal 5 interessanten Spielen. CUDA steht auch nicht alleine da ;) Und ist so oder so eine vereinsamte Schnittstelle die bestenfalls jetzt über OpenCL wirklich Verbreitung findet, nur wird sich hier ATI auch einmischen. Also auch nichts besonderes mehr. Und 3D Vision... ja genial, nur das ATIs neustes Gegenstück sogar besser und günstiger werden soll nah den ersten Vorstellungen die man sehen durfte.

Kurz... nVidia macht derzeit nichts besser oder schlechter als ATI. Es ist ein stink normaler Grafikkartenhersteller der es derzeit einfach verpasst hat sein Produkt rechtzeitig auf dem Markt zu bringen, eine überragende Marketingabteilung besitzt die Leute wie dich tatsächlich davon überzeugen kann das nVidia was besonderes wäre und ihre tollen Features wirklich jeder braucht :freak: ATI hält wenigstens weitestgehend die Klappe und macht nicht so viel nerviges Trara um ihre Produkte.

Aber danke das ich am frühen Morgen beim Kaffee mal richtig was zum schmunzeln hatte :D
 
Muaahhhh :freak:

Ich hab auch schon mal die Rückseite eines Rechners gesehen, hab aber an Hand der Slotbleche und Stecker nicht wild spekuliert was da für tolle Dinge drin sein könnten.
Vermutlich aber eine CPU, etwas Speicher und eine Grafikkarte... oder so. :D

Also bitte CB...
So langsam sackt ihr hier auf Bild-Niveau ab.

Aber wir wissen ja...
Fermi News oder auch nur blödes Gelaber bingt Site Hits und damit Werbeeinnahmen.
 
Da stehen dann echt Wachmänner neben nem zugehangenen Gehäuse und alle Hardware-Seiten mit Handkamera vor Ort flippen komplett aus und machen daraus ne Staatsaffäre. Nvidia weiß das natürlich. Am Ende ist da ne Neuauflage der GTX295 drin, mit Namen GTX395 oder sowas...

Wie echt alle komplett ausflippen in der Hoffnung, die Fermis schon auf der Cebit zu Gesicht zu bekommen. Vermutlich mit übelst getweakten Techdemos, bei denen eine Vergleichs HD5870 von ATI total abstinkt. Dann feiern die Fanboys wieder für 3 Wochen bis die Dinger tatsächlich mal getestet wurden.

Ich erwarte großen Fail diesen Monat. Kanns förmlich schon riechen.
 
Uiiih! :evillol: Jetzt wirds aber Zeit! Kanns kaum noch erwarten die Fermi in echt zu sehen! :D Wo bleiben denn erste benchmarks? Wenn karten schon auf den Weg zu Händelnn sind, müsste es doch auch schon erste leute die mal getestet haebn? Oder iss das nda diesmal so streng, das sich keiner traut? :lol:

@Jan: warum kamt ihr denn nich mehr zum Fotos schießen`?
 
2Pat schrieb:
Wenn Nvidia wirklich eine Single-Gpu Karte am Start hätte ... Testsamples an sämtliche Computer-Zeitschriften ausgehändigt worden.
Vielleicht sind die Probleme mit dem 40nm Prozess bei denen noch so groß, dass sie nicht genug Samples für alle PC-Magazine hätten :evillol:
 
@Lost_Byte
Wobei man dann eingestehen muss, das dies nicht nVidias Schuld wäre.
 
Eon-Deon schrieb:
@Lost_Byte
Wobei man dann eingestehen muss, das dies nicht nVidias Schuld wäre.
Jaein, warum hat es nVidia nicht geschafft, schon letztes Jahr mit 40nm erfolgreich am Markt zu testen wie Ati es mit der 4770 getan hat, denn nichts anderes war die 4770.
nVidia kam sehr spät mit ihren OEM GT2xx GPU. Wie Du schon schriebst, zu lange gewartet und das straft der Markt ab.
 
Wenn ich nicht gerade nen Antec Skeleton Gehäuse hätte würde ich die Möhre auch bei mir auf die Straße stellen, den Postboten daneben und behaupten das es ja gar kein Rechner ist sondern vielmehr eine Zeitreisemaschine...

"Ah, dass Slotblech ist anders, kann ja NUR der Fermi sein!". Ja nee, ist klar...

In anderen Publikationen (heise + abgedruckt in der c't) steht eindeutig drinnen das KEIN Launch des Fermis zur CeBit stattfinden wird, vielmehr WARUM er evtl. doch schon da gebraucht wird (diverse (Tech)-Demos). Wenn ich nicht so verdammt faul wäre würde ich das gerade mal nachlesen... ^^

So long, der Spawngebob



P.S. Eigentlich ist mir die Leistung des Fermis total schnuppe, hauptsache er ist bald verfügbar... Scheiß egal wie schnell der sein wird, wichtig ist das ATI die derzeitige Monopolstellung verliert (das derzeitige "Quasimonopol" ist im Grakasegment genauso schlecht für den Endkunden wie nur Intel im CPU-Bereich es wäre bzw. indirekt schon war, aber das weiß ja jeder).
 
Zuletzt bearbeitet:
@Spawn81

ganz genau das wäre wichtig das nvidia jetzt langsam mal was bringt,
den sonst "ATI Monopol" wird ATI in zukunft bei der entwicklung auf die bremse steigen,
und noch viel mehr die preise diktieren.

abgesehen davon entzieht sich mir auch irgendwie die notwendigkeit auf die ATI 5K Serie oder dem Fermi aufzurüsten abgesehen vielleicht vom stromverbrauch,
solange es in der Spieleentwicklung so ein trauerspiel ist und alles mehr oder weniger auf konsolen DX9 niveau herum dümpelt!

und dafür soll ich dann 500 euro auf den tisch legen?!
das ich mir 24 stunden nonstop den vantage reinziehe und mir bei den punkten einer abgeht.
 
Zuletzt bearbeitet:
Da dachte ich mir, woohoo endlich mal was handfestes und dann nichts :/

Ich will richtige Tests sehen, ob der Fermi dann Fail oder Win wird ist erstmal nebensächlich, aber immer wieder "News" ohne Inhalt sind langsam etwas eintönig.
 
dgschrei schrieb:
...
Wenn die Fermis die momentan TSMC verlassen wirklich erheblich leistungsfähiger wären als Cypress, dann hätten wir jetzt, einen Monat vor offiziellem Release, schon längst Unmengen an Benchmarks und Nvidias Marketing würde den Sieg von den Dächern pfeifen. ...
Wenn das Nvidia-Marketing wirklich gut ist, dh. von Apple gelernt haben sollte zu siegen, dann würde Nvidia das auch dann auf keinen Fall tun. Wer jedes Mal, wenn er positives zu vermelden hat, einen Striptease macht, macht sich damit für alle, die länger als einen Produktzyklus dabei sind, komplett vorhersehbar und hat demzufolge ein Marketing für die Tonne. Hervorragendes Marketing muss immer, wirklich immer, bis zur Produktveröffentlichung Geheimnisse behalten; gelegentlich muss dann auch mal bei der offiziellen Produktvorstellung ein Wow-Erlebnis entstehen.
 
Du vergißt das momentan leider nur der Handel davon provitiert.
Das Angebot egelt nun einmal die Nachfrage und somit den Preis. Die Händler lassen sich nun einmal ob der hohen Nachfrage die Produkte teuer bezahlen. Die Distributoren und der Einzelhandel ist momentan eben in der Lage die Ware zu sehr hohen Preisen vertreiben zu können.
Und wenn ich daran denke was früher für Grafikkarten bezahlt habe, finde ich die Preise momentan sogar noch sehr moderat. Ich habe mal in meinen Ordnern nach Preisen für die GF 2 - 4 Ti nachgeschaut, von der G80 Serie ganz zu schweigen.
 
Ganz ehrlich, ich denke so langsam das nVidia kein Konkurrenzfähiges Produkt gegenüber dem ATI Sortiment hat, aber zu borniert ist, jene "Niederlage" am Markt hinzunehmen.
Ergo wird alles genommen, was die technischen Abteilungen auch nur im Ansatz für die Serienproduktion hat, um es häppchenweise an den Kunden zu verfüttern, damit der Hunger auf mehr geweckt wird.
Bis jetzt scheint diese PR Strategie aufzugehen. Deshalb kann sich ATI auch entspannt am Markt behaupten, auch wenn wohl durch die produktionsbedingten Ausbeuten, nur wenige Exemplare den Konsumenten erreichen.

Meine Vermutung geht auch dahin, dass zur Zeit das Ende der Fahnenstange bzgl. Baugröße, Leistung, Verbrauch im Sinne des Mainstreams erreicht ist und es sich somit sehr schwer gestaltet Konkurrenzfähige Produkte mit Gewinn auf dem jeweiligen Sektor zu platzieren - ist aber wie gesagt nur eine Konsumentenvermutung meinerseits.

Mir als Kunde ist es auch eigentlich egal, ob da nun nVidia oder ATI auf der Hardware prangert. Hauptsache die Grafikkarte bringt genug Leistung, zu einen vernünftigen Preis, mit humanen Verbrauchswerten.
 
herranders schrieb:
abgesehen davon entzieht sich mir auch irgendwie die notwendigkeit auf die ATI 5K Serie oder dem Fermi aufzurüsten abgesehen vielleicht vom stromverbrauch,
solange es in der Spieleentwicklung so ein trauerspiel ist und alles mehr oder weniger auf konsolen DX9 niveau herum dümpelt!



Und das wird in Zukunft noch viel schlimmer werden! Immer mehr Spiele werden zukünftig von der Konsole auf den PC portiert werden, da die Konsolenspiele deutlich höhere Gewinnmargen versprechen (zudem ist es einfacher für eine "genormte" Plattform Spiele zu entwicklen als für zig verschiedene PC-Konfigurationen).

Ergo wird aus dem Trauerspiel eine Beerdigung, die Entwicklung dahin zeichnet sich nun schon länger ab.


Die Rückentwicklung des PC's zum reinen Rechenknecht wie damals zur Einführung dessen hat in meinen Augen längst begonnen, genauso wie die Preise der Grakas aktuell wieder in Sphären sind bei denen ich dachte, sie wären endgültig vorbei (400-600 Euronen).

Wer braucht die neue(n) Grakagenerationen also noch? Sind wir alle "Enthusiasten" wie die ganzen "Nerds" von Nvidia sowie AMD/ATI genannt werden auf die jene 400-600 Euro GPUS abziehlen?! 10-20% Mehrleistung rechtfertigen keine 200% Preisaufschlag, nirgendwo! Da werden Dinge die wirtschaftlicher sind / sein sollen (Stromverbrauch z.B.) schlagartig unwirtschaftlich.


A propos wirtschaftlich: ich muß dann mal los arbeiten um so Dinge wie Strom usw. bezahlen zu können... Existentielle Dinge eben, nen Fermi macht nicht satt... :D
 
Zuletzt bearbeitet:
I-HaTeD2 schrieb:
2Pat schrieb:
Ich habe es bereits einmal gesagt; aber hier nochmal:

Wenn Nvidia wirklich eine Single-Gpu Karte am Start hätte, die der HD5970 gleichwertig, bzw. wesentlich schneller als die HD5870 ist, würde das Ding direkt auf der Cebit vorgestellt werden UND (das wichtigste) - es wären schon längst Benchmarks ohne Ende erschienen und Testsamples an sämtliche Computer-Zeitschriften ausgehändigt worden.

Fermi wird eine gute solide Grafikkartengeneration, aber keine Megagigaultrabombe.

Und der einsame Computer + Wachmann ist ja wohl der Witz schlechthin. :rolleyes:

Edit: Und die Supersled Demo wird langsam echt lächerlich. :D :D Ist wahrschneinlich das einzige was Nvidia zeigt, da dabei die wirkliche Leistung ist zu erahnen ist. :) :)




Wenn du das sagst ... :freak:

Das wäre so als würde Blizzard alles zeigen was derzeit wie weit in Entwicklung ist und gleich mal ein paar Demos raushauen. Das es so niemals kommen wird wissen wir aber alle.

Das ganze ist Marketing - und wie es aussieht funktioniert es. Wieso etwas auf den Markt hauen was evt. noch nicht mal verfügbar wäre wenn man vorher ordentlich Gerüchte sähen kann und die ganzen Kunden so geil drauf das letztlich jeder eine haben will nur um selbst zu sehen was nun Fermi ist?

Die Bilder? Nicht Fermi sondern nichts. Ein PCB und eine Kühlerabdeckung samt Lüfter. Das Video? Zeigt mir nur dass das TJ10 von Silverstone Live noch viel sexier aussieht als auf Bildern. ;)

Wenn nVidia da wirklich Fermi GPUs am Start hat wirds auch irgendwelche Infos geben - wenn nicht dann nicht. Spätestens am offiziellen Termin wird es genug Infos geben.

Für mich nur traurig das man erst mal nix für den Mainstream-Markt haben wird, bisher waren HighEnd Karten im Bereich von 400-600 Euro für 99% aller aktuellen Titel unnötig und über den fallenden Wert braucht man heute ja eh nix mehr sagen. ;)

Das siehst du falsch. Wir reden hier nicht von irgendeinem Spiel für 40 Euro, dass man mal so eben kauft, sondern von Gpus die 300-600 Euro kosten. Rate mal wie viele Millionen HD5* in der Zeit verkauft wurden, in der Nvidia nichts zu bieten hatte und momentan immernoch noch nicht hat.
Ich beispielsweise habe ich mir aus diesem Grund auch eine gekauft. :)
Und diese Millionen an Käufern werde jetzt sicherlich nicht plötzlich eine Nvidia Karte kaufen. :D

Hätte Nvidia ein paar Benches zu bieten gehabt, hätten viele (wie ich) sicherlich auf Fermi gewartet.

-> BUUUUH NVIDIA!!! LOOSER!!!
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben