News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Schaffe89 schrieb:
@ Homann5 Man muss dabei auch mal bedenken, wieviel Shops es in ganz Deutschland gibt.
Viele Karten wurden schon verkauft. Nur streut sich das gewaltig.
SChon klar, aber die größten Shops und Ketten müssten, wenn man der Logik folgt, ja auch welche abbekommen haben.

Screemer schrieb:
@homann: wie erklärst du dann, dass es schon user mit 5870ern gibt? es hieß im übrigen nie, dass die karten zur pressevorstellung verfügbar sein sollen. es war immer die rede von 2 bis 3 dritte oktoberwoche. zack-zack hat im übrigen gestern min. 10 karten an den mann gebracht.
Natürlich gibt es schon einige Exemplare auf dem markt, deshalb kann man doch aber nicht davon sprechen, daß sie käuflich wirklich erhältlich sind. Und im übrigen hat ATI ganz klar gesagt, daß zum Launch am 23. September die Karten in großer Zahl im Laden erhältlich sein sollen.
 
Johannes7894561 schrieb:
3milliarden Transitoren sind echt extrem viel ich bin gespannt was die Karte kosten wird.

Da diese (gestern) vorgestellte Karte eher für den Pro Bereich gedacht ist (TESLA), kannst du so locker mit x000 Euro Aufwärts rechnen. Da spielt es auch keine Rolle, ob diese Karte 200W oder 300W Strombedarf hat. Wichtig ist, was diese Karte zu Leisten vermag. Zu der Abwärme kann man nur spekulieren, wobei ich denke, dass dies kein Problem werden wird. Wenn man nicht benötigte Transistoren abschaltet, verbraucht man weniger Strom und produziert weniger Wärme. Ich hoffe NV hat ein solches Szenario inplementiert. Von den 3 Mrd Transistoren fällt der Grossteil nur für GpGPU, freiprogrammierbare Kerne und den Cache.

Mal was anderes zum Thema:
Kaum bringt Firma XY ein Datenblatt zu einer neuen Generation von Podukt XY, geht bei vielen einer ab, ohne überhaupt zu wissen, wofür Produkt XY gedacht ist und ohne deren ganzen Specs zu kennen.
Soweit ich das verstanden habe, ist Fermi (also der Chip/Architektur)der Oberbegriff für NV neuster Generation von GPU's die dann denk ich mal unterteilt werden in Consumer (Geforce zum Teil auch Quadros) und Professionellen Bereich (Cuda/Tesla).
Hier wurde schon mehrfach drauf hingewiesen, daß Chipentwicklung sich über Jahre hinwegzieht. Wenn ich dann immer höre(lese) "NV (oder auch) ATI haben nix aus ihren Fehlern gelernt", muss ich immer lachen. Die Leute verstehn ihr Handwerk, sonst würdet ihr deren Produkte nicht kaufen. Ausserdem versteh ich net, wieso hier viele auf die FPS schauen. WOW die neue Karte von ATI hat nun 5 fps mehr als die von Nvidia.. Krass , sofort kaufen.. Hallo ????
Ich selber habe seit Jahren nur Nvidia Karten (ab RivaTNT32) gehabt, bin kein Fanboy (aus dem Alter bin ich raus), kaufe trotzdem gerne Nvidia Karten, weil ich zufrieden bin.
Dann diese dummen Schlauen Offs : War ja klar das NV diese Daten rausbringt, weil sie ihre Felle davon schwimmen sieht. - Nur dummes unqualifiziertes Gequake.
Verabschiedet euch von der alten Generation Grafikchips, was hier gezeigt wurde is nix für euch "Ich hab den längsten". Wen interessiert ob ihr im Spiel XY 100Fps oder 105 habt ? Wichtig ist doch Konstante.
Solange nichts genaues und wahrheitsgemässes von NV selber kommt, was das Thema G300 bzw mögliche Karte für Gamer oder Normalos betrifft, würd ich ma Dieter Nuhr zitieren:
"Wenn man keine Ahnung hat, einfach mal die Fresse halten."

Das würde so manchen Thread viele Offs ersparen.
 
hasugoon schrieb:
ich verwette mein nächstes gehalt, dass auch damit crysis nicht vernünftig laufen wird :)
für mich persönlich muss das auch nicht unbedingt die über-gamer karte sein. etwas mehr leistung abseits des spielebereichs (wie z.b. auch die neuen intel cpus) begrüße ich durchaus.

Selbst auf meiner 4870x2 läuft Crysis mit maximalsten Einstellungen mit 30fps+... Hab die Karte etwas getaktet (HD4890x2 Niveau) aber soviel macht das dann auch nicht aus...
Habe nen 28" Moni
 
Krass, ich will auch so ne dicke Chrome-Carbone Karte haben, fu hard ... nV gieeeeev mir das Kärtchen :rolleyes:

OMG was hier nur so unaufhaltsam über dermaßen ungelegte Eier geredet wird, habt wohl echt alle nüscht zu tun ^^

Gruß
 
@hasugon

ich wette dagegen.

eine 5870 schafft crysis@ max mit 1680x1050 bei 32fps oder ähnlich.


gruß
 
GunBot schrieb:
Lieber einmal 400 EURO und 3-4 Jahre Ruhe haben als jedes Jahr 150-200 ausgeben.
Das funktionierte vielleicht damals mit einer 8800GTX. Mit einer GTX280 wär deine Rechnung schon wieder nicht mehr aufgegangen. Sprich heute fährt man sicher besser, wenn man öfters eine aktuelle Midrange-Karte kauft als einmal das Top-Modell.
 
Schinzie schrieb:
tun sie ja auch,nur sind sie gleihc wieder weg.

http://www.arlt.com/?cl=details&campaign=geizhals&anid=1021693

es ist noch keine allgmeine verfügbarkeit gegeben, das stimmt. allerdings ist der andrang auch relativ groß.

@über mir

der,der jedes jahr eine für 150-200 kauft hat aber deutlich mehr leistung^^


gruß

Wenn es dir das Geld wert ist, und du nur frames jagst dann vielleicht schon.
Aber ich konnte mit meiner 8800GTX fast alles auf 1680x1050 mit hohen Details spielen, ob ich dann 30 oder 36 FPS hab is mir da egal.
Wenn man die Teile selbst zahlen muss überlegt man dann halt, aber wenn Papi zahlt kann ichs verstehen...
 
Warten angesagt :D mal sehen was das Monster mit 3GB Verbrät und gucken was Benches vs. ATi HD5800 sagen!
Die Theoretischen Werte würden, wie bei ATi auch -.-, 100% Mehrleistung versprechen und nVidia ist der Partner wo ich keine Speicherbandbreitenlimitierung vermute :D
 
Marc_N schrieb:
Basis schon, aber eben keine Grafikkarte.

Stimmt, Fakt ist, dass sie bis auf das Konzept "Fermi" und die damit zu erwartenden Vorteile, nix gezeigt haben, nicht nur keine Grafikkarte sondern auch keine Tesla GPU Karte. Nur ein Keramiktray mit Heatspreader und Aufdruck und ein Stück mehrlagiges GFK mit Lüfter drauf - das noch dazu vor Ungereimtheiten im Layout strotzt. Ich glaube nicht, sie hätten es sich nehmen lassen, das Ding in Aktion zu zeigen, und sei es nur um eine Kiste damit zu booten, wenn es möglich gewesen wäre.

Marc_N schrieb:
Ich könnte mir folgendes Szenario vorstellen: Nvidia bringt zunächst nur Tesla-Karten (etwas später eventuell auch Quadro-Karten) mit dem neuen Design auf den Markt, weil die Softwareumsetzung von DirectX11 (Stichwort Tesselator) für Grafikkarten einfach noch nicht fertig ist.

Sehe ich genau so... wobei "zunächst" bei Tesla m. E. auis den angesprochenen Designunstimmigkeiten eben erst um den Jahreswechsel soweit sein dürfte und Quadro/Geforce um Cebit rum. Das würde auch in Ihren normalen Turnus passen. Das Weihnachtsgeschäft gehört damit auf jeden Fall AMD/ATi. Zurecht, nebenbei.

Deine Meinung, dass Quadro VOR Geforce rauskommen könnte, teile ich hingegen nicht, denn das war noch nie so, eher andersrum. Ist auch logisch, denn die Quadro ist nix anderes als die Standard Geforce mit treiberseitigen OPenGL Optimierungen. Du kannst mit Lo-Level Treiberhacks oder einem Biostuning jede Geforce zur Quadro machen - (und, was aber natürlich null Sinn macht, auch umgekehrt) - nur hast Du dann halt nix an Unterstützung, was für wirklich professionelle Anwender aber wichtig ist.
 
@project
Da kann ich dir nur voll und ganz beipflichten. *unterschreib*

Ich selbst setze mehr auf ATi. So hat jeder seine Vorlieben. Und das ist auch gut so. Obwohl ich eigentlich auch der Typ bin, der immer das Beste haben möchte, konnte ich bei den noch aktuellen Grafikkartengenerationen feststellen, wie viel Leistung man für wenig Geld haben kann und dass man nicht immer sofort das Allerneuste haben muss. Okay, wer das Geld hat, der kann sich das erlauben. Alle anderen sollten den Weg der besseren Effizienz gehen.
 
Mister79 schrieb:
Ich bleib dabei, jetzt kaufen macht keinen Sinn. Warten was kommt und wenn beide Produkte getestet wurden kaufen.

Quatsch... wer jetzt eine Karte in den mittleren-oberen Preissegmenten sucht kann Bedenkenlos zuschlagen.

Shurkien schrieb:
Ich wette, dass nVidia den ATI Fanboys sowas von f***en wird mit den GT300 Karten.
Denen werden die Augen rausklatschen :D

Aus dir spricht so gar kein nV Fanboy oder? Neiiinnnn... *tätschel*

Motkachler schrieb:
Glaubst Du, daß es die 5er-Karten vor Weihnachten in realisitscher Stückzahl geben wird?

Klar wird es das geben. Ist ja auch nicht so dass jetzt nirgends lieferbar wären... sind halt noch schnell vergriffen.

GunBot schrieb:
Aber ich konnte mit meiner 8800GTX fast alles auf 1680x1050 mit hohen Details spielen, ob ich dann 30 oder 36 FPS hab is mir da egal.

Die 88GTX war eine der gaaaanz wenigen Karten wo die Rechnung

1x400€ für 3-4 Jahre > 200€ alle 1-2 Jahre

aufgegangen ist. Allerdings war sie eh deutlich teurer wenn ich mich erinnere, aber immerhin, das Preis/Nutzen Verhältnis war extrem hoch. Ansonsten sind fast ausschließlich Mittelklassekarten zu bevorzugen, und die halt dafür öfter.
 
Obwohl das ja aktuell echt nur ne .... Verlängerung wäre, bin ich echt gespannt auf "Fermi". Denke das Ding wird mit über € 350,- an den Start gehen - so nach Bauchgefühl :). Ich freu mich auf das "Monster" :)
 
Für die Leute mit 30"-Monis sicherlich mehr als nur eine Verlängerung^^. Es gibt tatsächlich Software die schon arg ins unspielbare hängt wenn man alle Regler nach rechts brät.
Abwarten und Tee trinken. Der Wechsel von meiner OC GTX280 auf eine ATI5 lohnt sich in meinen Augen nicht, mal schauen was und wann Nvidia nachzieht und die Wasserkühler dafür vorhanden sind.
 
Was wollt ihr eigentlich immer mit diesem Crysis Vergleich. Der ist genauso altbacken wie *Schwan*mark*.
Darüber hinaus ist diese Engine, in der ersten Version, bis dato so gut wie in keinem anderen Game zu finden, wenn gleich sie ihresgleichen sucht.
 
die wird nach meinem bauchgefühl in der spitzen-version wohl an die 500,- € kosten ;)
allerdings wird es auch eine reihe von sehr leistungsstarken versionen mit teil-deaktivierten/defekten einheiten geben, die deutlich günstiger werden und vermutlich mit der 5870 schritt halten können (sprich gtx360/gtx375).
eben wies schon bei der g200 war, nur alles n hunni teurer ;)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben