News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Das hoffe ich auch :) Sonst bräuchte ich die heizung überhaupt nichtmehr xD ( bei der 280 GTX wirds schon warm) ;)
 
Shurkien schrieb:
Ich seh die Ati Fanboys schon heulen :cool_alt:


was soll die ganze zeit diese scheiße mit den Fanboys? wieso sollte jemand heulen, weil produkt A schneller als Produkt B ist?

erstens ist Produkt A schon auf dem Markt und für paar Monate das beste was es gibt..das es nicht so bleibt, ist jedem klar...

Und das der G300 schneller wird, ist auch den meisten klar.nur,was wird er kosten? und so hyper wie kasmo es hier weissagt (keine ahnung wie viel er von Firma B kriegt), wird es nicht. dem geht ja gleich einer ab.

es wird ein genuss seine ganzen posts im Test des G300 zu zitieren, wenn er nur 40% schneller wie eine GTX285 ist^^


gruß
 
Shurkien schrieb:
Ich bin so auf die benches gespannt...

Ich seh die Ati Fanboys schon heulen :cool_alt:

Klaro, besonders wenn dieses Jahr ja gar keine Graka von Nvidia erscheint, weil:
das iss nämlich keine Graka sondern ne Kombinierte CPU/GPU u. schon überhaupt nicht für den Konsumerbereich, lies dir das mal auf Seite 18 durch, ab Tread 344.

Jetzt sind die andern mal am Drücker, mit dem lachen über die Nividia-Fanboys

LOL :D :D :D
 
Zuletzt bearbeitet:
Ich tippe auf ca 100% Leistungssteigerung gegen die GTX285/HD5870, aber wurde hier ja schon oft gesagt
 
war grad im HW-Luxx Forum und dort haben ein paar User etwas zu der von Nvidia präsentierten Karte herausgefunden.

Jen-Hsun Huang hat keinen Prototypen des Fermi gezeigt!

aber seht selbst (mit großem Beweisbild):

http://www.hardwareluxx.de/community/showpost.php?p=12991799&postcount=1770

citizen_one schrieb:
Danke an Crisch für das untenstehende Bild. :) Ich denke man sieht eindeutig, dass es sich wohl kaum um einen Prototypen handelt, sondern vielmehr um ein recyceltes PCB, von dem die Bauteile gekratzt wurden, welches abgesägt wurde und dann ein Kühler aufgepappt wurde.

Haben wohl nicht genug Karten um einen echten Fermi zu zeigen.
Wie war das nochmal mit der 2% Yieldrate? :lol:
 
Ich tippe auf ca 100% Leistungssteigerung gegen die GTX285/HD5870,

ja gegenüber welcher denn nu? Oô
dir ist schon klar, dass die 5870 30% schneller als die gtx285 ist? :D

@johnieboy: bin beim hwluxx nicht angemeldet, aber auf dem bild sind doch leiterbahnen Oô das is nur ne shice bildquali...
 
Zuletzt bearbeitet:
@Shuriken
Ja von denen die ne gute Glaskugel haben wurde das schon oft geagt.:D
 
Motkachler schrieb:
@Shuriken
Ja von denen die ne gute Glaskugel haben wurde das schon oft geagt.:D

Njo, wenn sie das wirklich so bringen wie es atm gesagt wird (6gb ram 3mrd transistoren) dann ist das glaub ich garnicht mal soweit hergeholt
 
Lübke schrieb:
@johnieboy: bin beim hwluxx nicht angemeldet

ja und? :confused_alt:

Lübke schrieb:
aber auf dem bild sind doch leiterbahnen Oô das is nur ne shice bildquali...

dann schau dir nochmal genau die Kante beim 8Pin Anschluss an. Aber anstatt alles nochmal aufzuzählen zitiere ich einfach nochmal citizen_one, er hat es herausgefunden

citizen_one schrieb:
Die Aussparungen für hohe Bauteile in der Backplane passen überhaupt nicht zu den Teilen die tatsächlich auf dem PCB vorhanden sind!

Weiterhin sieht man oben links, dass ein Loch im PCB für die Clips eines 8 oder 6-Pol PCIe Steckers halb nach hinten geöffnet ist. Sowas gibts garantiert nicht und Lötpunkte so dicht am Rand des PCBs ebenfalls nicht. Die zwei silbernen Flächen (garantiert Ground) sehen auch angesägt aus.

Die Einlassöffnungen des Radiallüfters hinten sind auch blockiert, was wohl weniger sinnig ist.

Und man sieht am Bild der Rückseite, dass beide DVI Ports angelötet wurden (Pins schauen hinten raus, sogar die Haltedübel sind angelötet). Auf dem Bild in der Verpackung (und auch auf dem Bild von der Rückseite) sieht man hingegen, dass sich auf dem Slotblech nur ein DVI Port befindet. Wo kommen also die Pins her?
 
was der ram damit zu tun hat, weis ich zwar nciht, aber die 6 gb gibt es nur für die quadro und tesla ;)
und dass die 3 mrd transistoren eine ganze menge an features bringen und nicht nur reine rohpower sollteste du eigentlich aus dem artikel wissen, falls du ihn gelesen hast ^^

also das sind sicher keine indikatoren für 100% leistungsschub...

@johnieboy: damit wollte ich nur sagen, ich kann leider da nicht direkt drauf antworten sondern nur in diesem forum...

das mit dem stromanschluss wurde hier auch schon bemerkt. mutmaßlich haben die ne atrappe hochgehalten... find ich nu nich so spannend aber da wird schon ziemlich viel reininterpretiert. hab ich schon öfter erlebt, dass bei öffentlichen vorführungen ein dummy verwendet wird. solange das teil nicht verbaut wird, machts ja auch keinen unterschied oder?^^
bei ner vorführung wäre das allerdings schlecht :D
davon gleich rückschlüsse auf die yields zu ziehn, halte ich für etwas gewagt...
 
Zuletzt bearbeitet:
Lübke schrieb:
ja gegenüber welcher denn nu? Oô
dir ist schon klar, dass die 5870 30% schneller als die gtx285 ist? :D

@johnieboy: bin beim hwluxx nicht angemeldet, aber auf dem bild sind doch leiterbahnen Oô das is nur ne shice bildquali...

Wenn du genau hinguckst, siehst du, dass in dem PCB die Lüfterlöcher der GTX295 sind und außerdem wurden hinten einfach etwas abgesägt. Sehr schön an den halben Widerständen zu sehen:lol:
 
Shurkien schrieb:
Ich tippe auf ca 100% Leistungssteigerung gegen die GTX285/HD5870, aber wurde hier ja schon oft gesagt

ich tippe auf 1000%, das wird ein quantensprung,das teil wird der hammer,es wird alles je dagewesene weghaun und du kannst damit in die vergangenheit reisen,so schnell ist das teil^^.

köstlich...
 
Wie ich schon teilweise gesagt habe, glaube ich das ATI schlicht und ergreifend eine andere Taktik fährt als Nvidia. Während ATI ziemlich stur ihren seit der 2k Serie eingeschlagenen Weg weitergeht (auch mit einigem Erfolg), geht Nvidia zunehmend andere Wege bzw. sie weiten ihren Anwendungsbereich massiv aus. Ich persönlich denke das letztendlich Nvidias Weg der bessere sein wird. Z.T. liegt es vor allem an der Spieleindustrie, die zunehmend stagniert und gerade Grafisch kaum noch vorwärts geht (man bedenke mal wie lange Crysis schon die beste Grafik hat). Das ist ein bisschen wie bei Intel und AMD, während Intel seit längerem erkannt hat, dass sich mit reinen Desktop CPUs immer weniger Geld verdienen lassen wird, bleibt AMD relativ strigt dabei.
Mfg
 
Kasmopaya schrieb:
Es ist eine komplett neue Architektur das hat mit G80 nichts mehr zu tun. Ich bleib dabei -> Quantensprung in jedem Gebiet, Gaming, GPGPU, Effizienz, Flexibilität, einfach alles -> der Über Chip

Ich seh das genauso, GT300 wird der üBoR-Rul3r-P0WNED-GPU. MINDESTENS 3x schneller als Cypress. Eher 4 bis 5 mal schneller. Natürlich zu sagenhaft günstigen 199€ (gerüchteweise).
Achso, Lautstärke wird besser als bei der 285, die Leistungsaufnahme wird vermutlich auch noch darunter liegen.

Alles in allem die perfekte Graka, da man ja genau wie bei Cypress auch DX11 bekommt UND Physx. Besser gehts nicht mehr. Eyefinity hat man zwar nicht, aber wozu gibts Triplehead2GO? Bei dem sagenhaft günstigen Einstiegspreis bekommt man das ja quasi gratis dazu.

Und endlich gibts 4GB VRAM Standard-->Tschüss VRAM-Krüppel!!!

^^
 
Zitat:
Zitat von Lübke
falls wirklich ein g200c in 40nm mit dx10.1 käme, würden den sicher viele kaufen, denn der shrink würde deutliche taktsteigerungen zulassen, wodurch man vermutlich wieder an der 5870 vorbeiziehn könnte. der vorsprung der 5850 zur gtx285 ist ja nur minimal, von da zur 5870 sinds dann auch nur winzige 20 %. falls nvidia wirklich noch ein halbes jahr brauchen würde, wäre so ein g200c eine gute übergangslösung für nv. dx11 gibt es noch so gut wir garnicht...
Zitat:Exar_Kun
Das wage ich bezweifeln. Auch ein refreshter G200c wäre ein angestaubtes Stück Hardware von Gestern. Wer außer Hardcorefanboys und Ahnungslosen würde noch auf sowas setzen, wenn es doch schon dx11-Grakas gibt, die höchstwahrscheinlich auch noch leistungsfähiger sind.
Die Zitate funzen hier meist net :-/

da -> da iss was aktuelles für die Nvidia-Faboys -> :D :D :D
DirectX-10.1: Desktop-Grafikkarten von Nvidia
Nvidia: Erste Informationen der 40-Nanometer-Desktop-Chips und GT220-Die-Shot gesichtet - Offizielle Details und Bilder
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben