News GeForce GF100 Fermi in „Volume Production“

Status
Für weitere Antworten geschlossen.
wenn das stimmt

lol das ist hart für nvidia fans


-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
DFI LANPARTY DK P45-T2RS, Q6600 G0 @ 4Ghz, CorsairH50,GeIL EVO ONE 8gb 1100 ddr 2, Intel® X25-M G2 Postville 160 GB, VelociRaptor 150 GB VelociRaptor, ati 4890, X-Fi Titanium Fatal1ty Champion Ser, BluRay Samsung SH-B083L ,NZXT Panzerbox,OCZ GameXStream 600 Watt,Samsung SyncMaster P2770HD:D
 
http://translate.google.com/transla...s-importante/468101/&sl=fr&tl=en&hl=&ie=UTF-8

mir gefällt vor allem der satz:
This system has been validated by Nvidia after many copies sent to the Santa Clara company have returned with the notation "failed." The cause? Insufficient cooling to remove heat generated by Fermi two cards in SLI.
und der:
Delay, power consumption of 300 watts, heats important, all of which we are told that Fermi'm a technological marvel, it seems already born evil.
zu schön :D
 
Zuletzt bearbeitet:
mapel110

kannst du so freundlich sein

und mir weiter helfen ? was denn kauf meiner neuen karte angeht danke

-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
DFI LANPARTY DK P45-T2RS, Q6600 G0 @ 4Ghz, CorsairH50,GeIL EVO ONE 8gb 1100 ddr 2, Intel® X25-M G2 Postville 160 GB, VelociRaptor 150 GB VelociRaptor, ati 4890, X-Fi Titanium Fatal1ty Champion Ser, BluRay Samsung SH-B083L ,NZXT Panzerbox,OCZ GameXStream 600 Watt,Samsung SyncMaster P2770HD
 
Zuletzt bearbeitet:
also ist die karte nach hinten gegangen oder wie ?
wenn die news stimmen dann wird nvida mit sicherheit kein gewinn machen ! oder lieg ich da falsch ?


-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
DFI LANPARTY DK P45-T2RS, Q6600 G0 @ 4Ghz, CorsairH50,GeIL EVO ONE 8gb 1100 ddr 2, Intel® X25-M G2 Postville 160 GB, VelociRaptor 150 GB VelociRaptor, ati 4890, X-Fi Titanium Fatal1ty Champion Ser, BluRay Samsung SH-B083L ,NZXT Panzerbox,OCZ GameXStream 600 Watt,Samsung SyncMaster P2770HD
 
Zuletzt bearbeitet:
@ ghettotyp
behalt einfach deine hd 4890 bis der fermi rauskommt sollte dieser nicht so toll sein kannst du dich zumindest darüber freuen das die hd 5k's billiger geworden sind
 
ok so mach ich das danke FS_Julio

DFI LANPARTY DK P45-T2RS, Q6600 G0 @ 4Ghz, CorsairH50,GeIL EVO ONE 8gb 1100 ddr 2, Intel® X25-M G2 Postville 160 GB, VelociRaptor 150 GB VelociRaptor, ati 4890, X-Fi Titanium Fatal1ty Champion Ser, BluRay Samsung SH-B083L ,NZXT Panzerbox,OCZ GameXStream 600 Watt,Samsung SyncMaster P2770HD
 
Wenn das stimmt, wird sich jeder vernünftige Spieler, ein paar Freaks mal abgesehen, ne AMD Karte holen.

300Watt ist einfach zu viel, leise werden die ja auch kaum sein.
 
FS_Julio

eine frage hab ich noch unzwar ob sich für mich crossfire lohnen würde danke

-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
DFI LANPARTY DK P45-T2RS, Q6600 G0 @ 4Ghz, CorsairH50,GeIL EVO ONE 8gb 1100 ddr 2, Intel® X25-M G2 Postville 160 GB, VelociRaptor 150 GB VelociRaptor, ati 4890, X-Fi Titanium Fatal1ty Champion Ser, BluRay Samsung SH-B083L ,NZXT Panzerbox,OCZ GameXStream 600 Watt,Samsung SyncMaster P2770HD
 
Ghettotyp schrieb:
FS_Julio

eine frage hab ich noch unzwar ob sich für mich crossfire lohnen würde danke

-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
DFI LANPARTY DK P45-T2RS, Q6600 G0 @ 4Ghz, CorsairH50,GeIL EVO ONE 8gb 1100 ddr 2, Intel® X25-M G2 Postville 160 GB, VelociRaptor 150 GB VelociRaptor, ati 4890, X-Fi Titanium Fatal1ty Champion Ser, BluRay Samsung SH-B083L ,NZXT Panzerbox,OCZ GameXStream 600 Watt,Samsung SyncMaster P2770HD
Ne 5870 reicht zur zeit für alles bis 24 er Moni dicke wenn nicht mehr einfach ne zweite dazu.
 
Zuletzt bearbeitet:
t4ub3 schrieb:
dein avatar ist einfach nur flach!

Homophob oder verstehst du keinen Spaß? :D

derMutant schrieb:
sieht nach einem Monster aus

Ich habe die Bilder mal bei Kollegen von CSI:Köln-Porz abgegeben, und die haben sie durch ihren Großrechner gejagt, um vielleicht ein paar mehr Informationen heraus zu finden.
Sie sind auch gleich bei den ersten Bildern fündig geworden, welches ein pikantes Detail offenbart, in dem sie mit einer speziellen Pixel-Shift-and-Addition-Software das Bild hochgerechnet haben.
Jetzt machen die aber erstmal Pause - sie brauchen das Programm für Satelitenfotos von der Villa von Britney Spears. Die ham ne Wette am laufen wieviel Pickel sie gerade hat!

Hier ihr erstes Ergebnis, ich melde mich wenn ich mehr herausgefunden habe!

 
zu deiner sli-frage zitier ich mich mal selber ->
Screemer schrieb:
@ghettotyp: ich würde nicht auf mgpu setzen, sprich mich gegen crossfire entscheiden. eine 5850er ist in etwa so schnell wie deine jetzige karte und der performancesprung auf die 5870er ist auch nicht so gewaltig. solltest du bei ati bleiben wollen, dann würde ich die karte noch behalten bis eine potentielle 5890 erscheint oder bei ordentlichem preis ins fermi-lager wechseln.
 
Screemer danke

aber zu nvida geh ich schon mal granicht weil die neue karte 300 watt zieht das ist zu viel wie ich finde für eine karte


-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------
DFI LANPARTY DK P45-T2RS, Q6600 G0 @ 4Ghz, CorsairH50,GeIL EVO ONE 8gb 1100 ddr 2, Intel® X25-M G2 Postville 160 GB, VelociRaptor 150 GB VelociRaptor, ati 4890, X-Fi Titanium Fatal1ty Champion Ser, BluRay Samsung SH-B083L ,NZXT Panzerbox,OCZ GameXStream 600 Watt,Samsung SyncMaster P2770HD
 
IntelFreak87 schrieb:
NV hat derzeit nicht die schnellste Highendkarte im Gaming, aber ist ansonsten stark und innovativ aufgestellt. Um dazu auch einige Bereiche nochmal zu nennen:

- Profi CAD (Quadro, sämtliche Apps sind auf NV zertifiziert im professionellen Segment)

CAD-mäßig nehmen sich beide Unternehmen nix. Je nach verwendeter Software ist die eine oder andere Graka besser. Falsch machen kann man mit keinem Hersteller was.

IntelFreak87 schrieb:
- Tesla (ein Trend den AMD verpasst hat.. GPU Rechenleistung im Rechenzentrum)

Der Top 5 der Supercomputer hat 2560 4870 X2 Grakas ;)


IntelFreak87 schrieb:
- Mobile Grafik (Mobile Quadro, GeForce usw.)

Nenn mir eine DX11 Graka von NVIDIA, die Performance-mäßig vor einer ATi steht.... Ups :lol:.
Vielleicht kannste mir eine nennen, die wenigstens Performance/Watt-mäßig vorne ist?
Wird glaube ich ziemlich schwierig...

IntelFreak87 schrieb:

ATI Stream, schon mal gehört? Oder OpenCL?

IntelFreak87 schrieb:
- OEM Karten (Mainstream Geschäft, größter Umsatz)

Die verbauen meist nur das günstigste mit den meisten Features. Ebenfalls schlechte Karten für NVIDIA. Denn hier hat AMD aktuell die Nase meilenweit vorne.

IntelFreak87 schrieb:
- Highendkarten GTX 285 und 295 sind trotzdem Top Karten

EOL, kaum verfügbar und (zu) teuer. Vom fehlenden DX11 sowie schlechter Performance/Watt mal abgesehen...

IntelFreak87 schrieb:
- Treiber Qualität

Nimmt sich nix. Spätestens mit den monatlichen Updates funktioniert eh alles

IntelFreak87 schrieb:

Leider kein offener Standard und von NVIDIA künstlich verschlechtert (miserabler CPU-Support, Support von NVIDIA-Physx Karten auf Systemen mit AMD-Graka)-->MÜLL
Mal abgesehen von fast nicht vorhanderer Software.

IntelFreak87 schrieb:
Weiterhin ist es einleuchtend, dass NV keine Techn. Daten/ Benchmarks offiziell bekannt gibt. NV weiss, dass die Karten erst Mitte/Ende 1. Quartal 2010 kommen.

Schön das NVIDIA das weiß, nur warum heißt es dann schon seit Monaten, Fermi stehe kurz vor der Tür?
 
Leute, glaubt Ihr jeden Sche..s den man verbreitet? Fermi wird eine Bombe. Zwar mit einem hohen Stromverbrauch, aber es wird sich lohnen, zumindest für die, die es sich leisten können. Nicht umsonst haben diese Karten längere Entwicklungszeit gebraucht (Bauchgefühl). Und solche Karten finden Ihre Herrchen immer. Für die, die sich jetzt eine Karte holen wollen und wissen nicht ob sie holen sollen ( wie ich :D ), empfehle ich auf Fermi zu warten. Denn dann entscheidet sich alles. Wenn einer mit Fermi nicht zufrieden sein wird, dann sollte er zu ATI greifen den dann werden diese Karten zum Release von Fermi auch billiger.
 
Vielleicht arbeitet nVidia an einer hochwertigen Grafikkarte, die mühelos passiv gekühlt werden kann und auf der Seite der Leistung alles bisher Dagewesene in den Schatten stellen wird... Release drittes Quartal... 2013... :D

Allmählich wird das mit nVidia schon ziemlich albern... trotzdem bleibt es bis auf Weiteres spannend.
 
göschle schrieb:
Der GF100 ist ähnlich wie der legendäre G80 ein völlig neuer Chip, auf dem nachfolgende Graka's basieren werden. Die Entwicklung des GF100 hat mindestens 4 Jahre in Anspruch genommen. Ich gehe auch davon aus, daß Nvidia bereits parallel die Weichen für einen weiteren Next-Gen Chip gestellt hat, der alles bisher dagewesene egalisieren wird.
Lustig. Nein. :rolleyes: Fermi ist eine Weiterentwicklung von G80 und G200. Man wird sicherlich nach der Fertigstellung von G200 damit begonnen und maximal 2 Jahre entwickelt haben. Fermi wird leider genauso wenig effizient wie der Vorgänger. Zu grosser Die, zu kostspielig, zu stromhungrig, relativ gesehen zu wenig Leistung. Basiert halt immer noch auf der G80 Unified Shader Architektur. Alles bisher dagewesene zu egalisieren, ist doch ziemlich optimistisch. Das Problem ist vielmehr, nVidia wird 2010 damit zu tun haben, Fermi in Stückzahlen überhaupt auf den Markt zu bringen. Und 1H 2011 kommt dann schon die Next-Gen GPU von der Konkurrenz. Und die scheint in der Tat eine komplett neue Architektur zu werden, in 28 nm.

Screemer schrieb:
es wird kein 32nm bei gf geben.
Doch, wird es. Auch wenn die Next-Gen GPU, wie du schon sagtest, scheinbar in 28 nm gefertigt wird.

IntelFreak87 schrieb:
Sorry, aber das ist ja mal ein richtig schwachsinniger Vergleich.

Quelle war eine Firma mit nicht mehr innovativen Geschäftskonzept, was in der heutigen modernen Internet Einkaufswelt nicht mehr funktioniert.
Ich finde den Vergleich sehr passend. nVidia ist ebenfalls wenig innovativ, falls sie das überhaupt mal waren. Ist doch das gleiche in grün. Grosse stromhungrige unwirtschaftliche High-End Chips. Das passt in die heutige Zeit auch nicht mehr. Dazu kommt, dass die Qualität ihrer Produkte auch immer mehr den Bach runter geht. Dafür wurden sie mittlerweile zum Glück auch abgestraft.

IntelFreak87 schrieb:
ATI hat es sich im Gegensatz zu NV mit dem DX11 Chip leichter gemacht. Da wurd einfach der Chip aus der 4xxx Serie leicht überarbeitet, DX11 implementiert und somit war man relativ schnell fertig.

Weil ATI keine große Änderung an der Architektur gemacht hat.
Das war ja auch nicht notwendig, da die Basis hervorragend ist. Was glaubst du denn, wo ATI die meisten Entwicklungsressourcen schon länger hat? Schau mal auf 2011. ;) nVidia hat an der Architektur ebenfalls nicht so viel geändert, wie der eine oder andere glaubt. Lediglich an der Shader Architektur waren die Eingriffe etwas grösser. Was für eine Ironie, dass man hier ATI nacheifert, MUL+ADD und SP/DP pro ALU.

mastermc51 schrieb:
Das glaube ich eher nicht....
Wenn man mal sieht wieviele % die 5870 schneller im Vergleich zur GTX285 ist, dann
kann es definitiv nicht sein, das bei Verdoppelung der Kerne nur eine 20-30% Steigerung da ist.
Ich tippe mal eher auf ca. 70-80% schneller als die "alte" GTX285.
Somit ca. 30-40% schneller als die AMD 5870...
Da solltest du aber nochmal nachrechnen. Laut CB ist die HD 5870 35-50% schneller als die GTX 285. Dazu kommt, sollten es wirklich nur 448 Shader sein, hat man weniger als verdoppelt. Zudem wurde die theoretische Leistung eines Shaders verringert. Jetzt nur noch MUL+ADD statt vorher 2xMUL+ADD. Weniger Takt scheinen die Shader auch noch zu haben. Die Shader Leistung hat sich also weit weniger als verdoppelt. Dazu kommt noch Grafikleistung wie ROPs oder TMUs, die sich ebenfalls nicht verdoppelt hat. Bei ATI hat sich das alles im Gegensatz dazu verdoppelt. Den Sprung von HD 4890 zu HD 5870 kannst du dir ja anschauen. Wer wirklich meint, die GTX 380 würde durchschnittlich 40% schneller werden als die HD 5870, ist imo ziemlich optimistisch oder ziemlich weltfremd. Ich denke, der Unterschied wird nicht grösser sein wie seinerzeit GTX 280 und HD 4870, eher weniger. Ausser nVidia ist der Stromverbrauch nun vollkommen egal und man nimmt eine 300 W TDP in Kauf. :freak:

IntelFreak87 schrieb:
Ich nenn dir 4 Segmente wo NV stärker ist:

- OEM Grafikchips
- Profi CAD Quadro Karten (da hat NV 70-80% Marktanteil)
- Mobile Grafiklösungen für die Masse
- Tesla/GPGPU
OEM Grafikchips? Nein. Da gibt ganz klar ATI den Takt mit der 5000er Serie vor. Profi Karten? Akzeptiert. Aber wenn es so weiter geht, nicht mehr lange. Mobile Grafiklösungen? Bei IGPs wird es immer dünner für nVidia, da sie im Gegensatz zu AMD und Intel keine eigene Plattform haben. Den Markt für diskrete mobile GPUs hat ATI schon übernommen und wird mit der 5000er Serie weiter ausgebaut. Tesla/GPGPU? Ist bisher noch ein recht kleiner Markt und angesichts der Fusion Entwicklungen von AMD sehe ich nVidia nicht sonderlich gut aufgestellt.


@topic
Wenn die Karten wirklich schon in Massenproduktion sein sollten, kann es eigentlich nur A2 sein. Das wird dann wohl Kundenverarsche vom Feinsten. Erste naive Kaufwillige und nVidia Schafe mit einem halbgaren Stepping abfertigen, um überhaupt etwas auf dem Markt zu haben, während einige Zeit später A3 nachgeschoben wird. Ich persönlich halte es aber für wahrscheinlicher, dass man gleich A3 bringt. Dann jedoch nicht vor Q2.
Fermi ist aber sowieso nicht das Problem. Das Problem sind die diskreten Mittelklasse und mobilen 5000er GPUs der Konkurrenz. Da hat man nichts entgegenzusetzen bzw nur veraltetes Silizium. Bei nVidia vermisst man leider mehr und mehr ein klares Konzept, was solide umgesetzt wird. Wer wirklich glaubt, was nVidia momentan macht sei Planung, verkennt leider die Realität.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben