News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
aber nicht doppelt so schnell,wovon träumt ihr nachts?

außerdem braucht der 5870 in spielen weniger als eine 4890.


gruß
 
Gunbot

Zitat
Die ganze GGpu Geschichte ist zwar nett, aber wie hier schon öfters gesagt worden ist, möchte ich nicht für etwas zahlen was ich nicht brauche. Wenn ich schon gute 450 Öcken ausgebe, möchte ich maximale Spieleleistung. Mal sehen wann der GT300 überhaupt tatsächlich rauskommt, vielleicht wirds nach 3dfx und 10 Jahre Nvidia zum ersten mal eine ATI

*stimme ich dir voll und ganz zu. Im Moment weiss ich nicht ob NV oder ATI also warte ich und auch bei mir könnte es die erste ATI werden*
 
nVidia wird, wie AMD auch, verschiedene Varianten mit G300 auf den Markt bringen. Da sollte dann auch für jene ein Modell dabei sein, die nicht soviel Geld ausgeben wollen. Alternativ gibt es ja günstige 200er, zu denen man greifen kann.
 
Lustig ist, wenn man etwas die FLOP-Zahlen vergleicht, das Teil ca. einen Rechenleistung von 60 Playstation 3s hat ;-)
 
@Winterday

aber die HD5 Karten sind günstiger und schneller,wieso noch eine G200 karte kaufen?

siehe HD5850 und GTX285/GTX275


gruß
 
@Project-X

Hats du nicht den Strom vom PCI Express vergessen - also max 75+75+150 Watt - oder?

MfG
CU
 
@Schinzie: ich denke nicht, dass sich die preise der g200-karten so halten werden. die nachfrage wird den preis der g200 genauso regeln, wie die der hd5k. das nennt man freie marktwirtschaft ;)
wenn sich die karten nicht mehr zum aktuellen preis verkaufen lassen, dann muss der preis eben sinken. und bei der g200-reihe wird er das ganz sicher...

@suessi22: ich denke, nur über die anschlüsse über den verbrauch zu spekulieren bringt wenig. die g300 hat die gleichen stromanschlüsse wie die gtx280, deshalb muss sie nicht zwangsläufig gleichviel verbrauchen. und 300 watt sind das limit, falls der g300 so viel strom ziehn würde, würde nvidia da sicherheitshalber 2 x 8-pin verbauen und nicht 8 + 6 pin ;) also wartet auf tests, bevor ihr ein urteil über den verbrauch fällt. das is eine ganz neue architektur und eine neue fertigungsgröße. da ist alles denkbar...
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
Ich denke besser wäre es immernoch sich auf eine Disziplin zu spezialisieren.
2 Gleisig fahren kostet wahrscheinlich zuviel Entwicklungsgelder.
Da warendie Verluste mit dem GT200 nicht gerade förderlich.

Bei manchen Workstation-Deviraten ist der Entwicklungsmehrwert recht bescheiden.
Die besten beispiele hierfür waren Quadro-Ableger des G80 und des G200. Mit dem Aufpreis erhältst du selektierte Chips, u.U. eine bessere, qualitativ wertigere VGPU usw.
Das hauptaugenmerk liegt allerdings auf dem modifizierten BIOS.

Wie einfach diese Karten gestrickt sind (oder besser waren) verdeutlicht das Beispiel, dass du durch ein BIOS-Flash einer G71-Dektop-Karte eine G71 Quaddro machen konntest.
Zu seiner Zeit war das eine Frage von (Feature) aktiviert oder deaktiviert. Spätestens seit dem G80 ist das anhand der Unified Shader weggefallen. Man kann heute übrigens keine Desktop-Karten zu Quadros mehr machen, was an den Karten selbst liegt: Der G80 Ableger Q4600 hat 92SE auf 384-bit. So eine Karte gibt es als Desktopableger schlicht und ergreifend nicht.
Ebenso der G200-Ableger: Hier wurde das SI auf 384 zusammengestrichen. Gibt es eine GTX2xx mit 384bit-SI? nope.

Um mal kurz auf deine Diskussion mit Volker zurückzukommen:
Er hat insofern schon recht, dass es wirtschaftlicher ist eine professionelle Variante anzubieten als gar keine. Der R600-FirePro Abbleger war übrigens eine hervorragende Karte und wurde scheinbar auch gut verkauft.
Allerdings habe ich es mit den Release-Dates etwas anders in Erinnerung. Bspw. kam G80-Desktop im November und G80-Workstation erst im März des darauf folgenden Jahres auf den Markt. Ähnliches war auch beim G200-Ableger zu verzeichnen, wenn ich mich nicht irre. Volker meinte, dass dies immer zeitgleich passierte (?)

Lange Rede kurzer Unsinn:
- Für Workstation-Grakas ist definitiv ein Markt vorhanden, und klein ist dieser nicht.
- Die Modifikationen ggü dem Desktop-Devirat halten sich meist in Grenzen (s.o.)
 
Zuletzt bearbeitet:
@ Shuriken

und ich wette,dass dein post da nicht lange steht^^

@MacBook

Jedes Ingenieur Büro hat workstationKarten..der markt ist riesig. wir haben hier allein 6 oder 7 rumstehen.



gruß
 
Zuletzt bearbeitet:
Ich finde es immer wieder belustigen wie Leute gleich rumdiskutieren und reden müssen, über Vermutung was wäre wenn und ob nicht, vll isses aber auch so. Anstatt einfach mal bissel zu suchen UND RUHE BEWAHREN um zu schauen für was das Ding eigentlich ist und worauf es hinauslaufen soll. So wäre der Thread hier um 250 Post geringer ;)

Schaut einfach mal dort rein und lest mal durch, dann sieht man mal etwas ruhiger was NVIDIA da macht:
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=1
 
suessi22 schrieb:
@Project-X

Hats du nicht den Strom vom PCI Express vergessen - also max 75+75+150 Watt - oder?

MfG
CU

Er hat nur den 8Pin hinten gesehn und nicht noch den 6Pin oben und somit liegt der max verbrauch bei ~ 226-300Watt
 
feldwebel-Chief schrieb:
Er hat nur den 8Pin hinten gesehn und nicht noch den 6Pin oben und somit liegt der max verbrauch bei ~ 226-300Watt

wuerde die nich so knapp ansetzen.. 180-280Watt sind realistischer. Vllt ist der 6er nur zur Reserve/Sicherheit/Uebertaktbarkeit. Und an die 300 wird sie nicht ran kommen weil sie dann 2x 8 haette, aus den gleichen Gruenden.
 
Geil das Design gefällt mir viel besser als das von der neuen ATI :p
 
Einfache Rechnung:

PCIe 16x - Boardpower: 75W
PCIe 6-pin: 75W
PCIe 8-pin: 150W, ergo:

im schlimmsten Fall 300W (wenn die PCIe-Spezifikationen gebrochen werden noch mehr)
 
Lilz schrieb:
wuerde die nich so knapp ansetzen.. 180-280Watt sind realistischer. Vllt ist der 6er nur zur Reserve/Sicherheit/Uebertaktbarkeit. Und an die 300 wird sie nicht ran kommen weil sie dann 2x 8 haette, aus den gleichen Gruenden.

Bei 2 8Pin würde die karte 375Watt nehmen können ... das ist aber ncit mehr innerhalb der PCIe Spezifikation
 
Mister79 schrieb:
Ich bleib dabei, jetzt kaufen macht keinen Sinn. Warten was kommt und wenn beide Produkte getestet wurden kaufen. Im Moment kann ich echt nicht sagen was mehr Sinn macht. für alle die keine neue Karte benötigen ist warten wohl richtig und für alle die eine brauchen, weil die alte defekt ist oder einfach zu schwach ist eine ATI. Wobei sich die Frage stellt ob man dann nicht lieber eine billige nimmt und nochmal guckt was NV wirklich gezaubert hat.

Mich würde wirklich mal interessieren was deine Motivation ist hier in jedem Thema welches sich um die aktuellen Grafikkarten von ATI und die Gerüchteküche von NV dreht, gebetsmühlenartig zu beteuern, dass man lieber auf NV zu warten hat auf das was da kommen möge. Mein Gott wirst du von denen Bezahlt, hast du Angst die gehen pleite oder was?

Jetzt soll man sich, laut Dir, sogar erst noch eine billige Karte kaufen, sollte man unbedingt eine benötigen. Abgesehen davon, das man mit dieser Praktik noch mehr Geld zum Fenster rausschmeißt ist das absoluter Blödsinn. Die Aktuellen Karten von ATI sind potent und ihren Preis durchaus wert.
Werden die neuen NV-Karten etwas schneller zum gleichen Preis hat man nichts falsch gemacht, da man schon ein bis zwei Monate genüsslich Zocken konnte.
Sind sie viel schneller, werden sie auch viel teuerer und man hat wieder nichts falsch gemacht. Oder glaubst du allen ernstes das die NV Karten ende des Jahres in großen Zahlen verfügbar sind zum Minipreis mit Maxileistung. Oh Herr, hilf! :freak:
 
Winterday schrieb:
nVidia wird, wie AMD auch, verschiedene Varianten mit G300 auf den Markt bringen. Da sollte dann auch für jene ein Modell dabei sein, die nicht soviel Geld ausgeben wollen. Alternativ gibt es ja günstige 200er, zu denen man greifen kann.

Sry aber kauft jetzt (oder sogar in ein paar Monaten) noch DX 10 Karten der letzten Generation?:freak: Man kann wirklich nur hoffen das das nicht die consumer Karte war die sie präsentiert haben, weil sonst hat AMD/ATI bis weit ins nächste Jahr hinein null Konkurenz und ein quasi Monopol. Aber selbst wenn das nicht die consumer karte war und die noch kommen sollte dann wird AMD/ATI immer noch bis min Februar ein Monopol haben, früher kann Nvidia die Karten leider nicht flächendeckend liefern, falls überhaupt.

Und wie wir ja alle wissen und auch schon gesehen haben (Intel, MS, Apple), ist ein Monopol nie was gutes. Und auch wenn ich AMD/ATI für relativ fair in punkto Preisgestaltung halte werden sie das nicht bleiben wenn sie den Markt für sich alleine haben.

Meine Prognose ist das Nvidia noch die "wirkliche" GT300 in der Hinterhand hat und präsentieren wird und das Fermi einfach die neuen Quadros werden für den pro Bereich. (schon mal versucht mit ner Quadro zu zocken?!)
 
Mal ne andere frage: Was soll das sein? Ein Paperlaunch? nein, ähh was dann. Ist das die vorstellung eines ersten Test Samples oder der ersten 100 oder was?

Wie kurz diese Monate die noch kommen sind kann jeder selber beurteilen, die Anzahl wäre interessanter, ein paar kurze Monate sind genauso gut wie ein paar lange Monate, aber natürlich nicht für die Marketingblubberabteilung von Nvidia.

AMD wird wohl eindeutig das bessere Modell für 90% der Kunden liefern, die leistung reicht bis auf weiteres für jeden der nicht über fullhd hinaus spielen will und man kann jetzt kaufen. Wenn Nvidia raus kommt werden die Karten wohl noch nen Huni billiger wenn Nvidia auf änlicher höhe ansetzt. Werd mir wohl keiner der Karten in nächster Zeit kaufen, dafür bräucht ich eh nen neuen Pc. Und was für spiele sollen den kommen wo sich das lohnt? Crysis 2.0? Oder Konsolenport 523? dafür reichen auch beide karten locker.

Aber würde immernoch interessieren was das sein soll. Nvidia muss schon verzweifelt sein, wenn sie nicht mal mehr bis zu nem Paperlaunch Datum warten können und schon vorher rausposaunen irgendwann (kein datum) werden wir ein produkt launchen wo wir nicht sagen wie schnell es ist sondern nur wieviele Transistoren es hat. Bischen Arm kenne sowas aus der Vergangenheit nicht.

terraconz: ähh versteh ich dich grad falsch oder hast du jetzt angst das AMD ein monopol auf dem Grafikkarten Markt bekommt und rätst daher zu Nvidia? Momentan ist Nvidia noch der Marktführer wenn da AMD paar % punkte Marktanteil zurück erobert und es Richtung 50:50 geht wäre das wohl eher gut für den Markt, aber glaub hab dich falsch verstanden?
 
Zuletzt bearbeitet:
MountWalker schrieb:
OpenCL ist doch auch ein Herumgebaue um die Programmiersprache C, wenn dieses Herumgebaue um Objektfähigkeiten erweitert wird, ist das doch toll. ;)

Sicher ist das schön, aber die Frage ist eher, ob das sinnvoll ist. Was ich seltsam finde ist eher warum man die GPU C++ fähig machen will, wenn kein normales C++ Programm auf einer GPU auch nur annähernd die Performance einer CPU erreichen kann. An der einfacheren Programmierbarkeit kann es nicht liegen, den der GPU C++ Code wird kaum was mit normalen C++ Code gemein haben außer einem ähnlichen Syntax. Gleiches gilt auch für OpenCL nur das man dafür nicht irgendwelche CPU-Features in eine GPU einbaut, die dort kaum einen Nutzen haben.

MountWalker schrieb:
Ich bin sowieso dafür, dass die GPU einen richtigen Sockel auf dem Mainboard bekommt. Was einerseits wichtig für die Kühlung ist (verglichen mit dem Thermalright-Aluminiumblock auf meiner TDP 65W CPU ist der Kühler einer 180W GPU ein Winzling), bietet auch Möglichkeiten den gleichen Interconnect wie zwischen CPUs zu verwenden.

Bevor das ganze mit CPU+GPU Kombis geplant wurden, gab es Bestrebungen genau so etwas umzusetzen. Bei AMD lief das ganze unter dem Namen Torrenza. Dabei ging es beliebige Beschleunigerkarten direkt per Hypertransport an den CPU-Kern anzuschließen. Soweit ich weiß gibt es einige Servermobos, vor allem im HPC-Bereich, die einen solchen Sockel besitzen, allerdings weniger für Beschleunigerkarten, sondern für die Verbindung der einzelnen Rechner zu einem Cluster via Infiniband.

MountWalker schrieb:
Die GPGPU ist ein Coprozessor und sollte in Zukufnt auch entsprechend ins System eingebunden werden.

Wenn's nach Intel/AMD geht wird die GPU in ferner Zukunft sogar noch näher an die CPU herangerückt, nämlich ins gleiche Chipgehäuse oder gleich auf den selben Die. Damit wären natürlich die Probleme mit den Latenzen/der Bandbreite erledigt, allerdings ergeben sich daraus neue Probleme, z.B. die daraus resultierende Chipgröße oder noch viel mehr die Speicherbandbreite. Man vergleiche nur einmal die Speicherbandbreite von Grafikkarten und CPUs.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben