Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Offiziell: „Fermi“ a.k.a. GT300
- Ersteller Volker
- Erstellt am
- Zur News: Offiziell: „Fermi“ a.k.a. GT300
- Status
- Für weitere Antworten geschlossen.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
bei den fanboys schon, aber im mm findet man sicherlich auch noch ne 1950pro mit dx9, die für 180,- € ihre abnehmer findet. was meinst du, wie gut dann erst eine "gts340" mit physx gehen wird?
die informierten leute sind eine geringe minderheit...
ps: die gt210 und gt220 mit dx10.1 sind auch grad erst raus, warum dann nicht auch ein paar leistungsklassen höher?
die informierten leute sind eine geringe minderheit...
ps: die gt210 und gt220 mit dx10.1 sind auch grad erst raus, warum dann nicht auch ein paar leistungsklassen höher?
DarknessFalls
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 931
@Kaoznake, ich hatte weiter vorne mal gemutmaßt, daß man wie bei den Mobile-Modellen DX 10.1 implementieren wird und wie bei G300 Tesselation über CUDA emuliert, um zu DX 11 kompatibel zu sein. Ein Shrink auf G92c und G200c wäre somit nicht abwegig, denn eins scheint sicher - nVidia hat bis Q1/2010 nichts, um sich der HD5k-Serie effektiv entgegenzustellen. Sie müssen handeln, allein schon aufgrund des Weihnachtsgeschäftes.
Disco Stu
Lieutenant
- Registriert
- Okt. 2006
- Beiträge
- 582
Steiner_mC schrieb:Und fehlt es einem an Gegenargumenten, dann ist der andere erstmal ein Fanboy. Ich gebe zu das mir die Geschäftspraktiken von nV noch nie zugesagt haben und ich das Ganze mit einer gewissen Schadenfreude betrachte, das macht mich noch lange nicht zum ATI-Fanboy. (wo ich noch nicht mal ne Karte von denen habe).
Lübke schrieb:@Steiner_mC: ich glaube mit "fanboy" war charly gemeint
so schauts aus - aber hauptsache erstma angegriffen fühlen
GHad
Lieutenant
- Registriert
- Apr. 2008
- Beiträge
- 760
Hmm, mit Vorschusspanik hat das nichts zutun. Es ist doch einfach nicht bekannt, wann überhaupt die ersten Gamer-relevanten Informationen herauskommen oder wann der NDA aufgehoben wird.
Aussage war: Die Präsentation und NVidias Reaktion auf die Nachfrage nach dem Dummy lassen vermuten, dass dies lediglich eine PR Veranstaltung war, die darauf abgezielt hat, ATI das Gechäft ein bissle zu vermiesen. ATI hätte das vorraussichtlich genauso gemacht, wenn sie in dieser Situation gewesen wären.
Das heißt für mich eben: Keine Liefertermine, keine realistische Chance, dieses Jahr eine HighEnd Graka von NVidia zu sehen, von Mittelklasse brauch ich gar nicht anfangen. D.h. einfach, wer jetzt eine GraKa benötigt, braucht auch keinen Monat zu warten, um dann wieder min. 2 Monate zu warten. Der soll sich doch ne ATI holen und wird für mind. 6 Monate zufrieden sein. So seh ich das nun mal.
Wer aber keine Graka braucht, einfach auf mehr Infos warten und dann entscheiden.
Greetz,
GHad
Aussage war: Die Präsentation und NVidias Reaktion auf die Nachfrage nach dem Dummy lassen vermuten, dass dies lediglich eine PR Veranstaltung war, die darauf abgezielt hat, ATI das Gechäft ein bissle zu vermiesen. ATI hätte das vorraussichtlich genauso gemacht, wenn sie in dieser Situation gewesen wären.
Das heißt für mich eben: Keine Liefertermine, keine realistische Chance, dieses Jahr eine HighEnd Graka von NVidia zu sehen, von Mittelklasse brauch ich gar nicht anfangen. D.h. einfach, wer jetzt eine GraKa benötigt, braucht auch keinen Monat zu warten, um dann wieder min. 2 Monate zu warten. Der soll sich doch ne ATI holen und wird für mind. 6 Monate zufrieden sein. So seh ich das nun mal.
Wer aber keine Graka braucht, einfach auf mehr Infos warten und dann entscheiden.
Greetz,
GHad
Naja, er hat ja nicht geschrieben, dass er eine Ahnung hat .Lübke schrieb:dann erleuchte uns mal, oh weiser q3trax
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@GHad: ich glaube, jetzt hast dus
das war nur eine pr-aktion, um auch mal was von sich hören zu lassen wo grad der fokus auf ati liegt. wirklich vorgestellt wurde ja nichts. es wurden neue/verbesserte features genannt und ein testmuster einer teslakarte sowie ein g300 gpu gezeigt. mehr nicht.
der vorstellungstermin/fall des nda dürfte erst ende november sein, wie cb ja sehr deutlich angedeutet hat
aber viele schließen daraus leider direkt, dass nvidia noch monate von einem release entfernt ist. im dezember sollen aber wohl erste karten in den handel gelangen... fürs weihnachtsgeschäft etwas spät, aber sicher keine ewigkeit mehr entfernt...
das war nur eine pr-aktion, um auch mal was von sich hören zu lassen wo grad der fokus auf ati liegt. wirklich vorgestellt wurde ja nichts. es wurden neue/verbesserte features genannt und ein testmuster einer teslakarte sowie ein g300 gpu gezeigt. mehr nicht.
der vorstellungstermin/fall des nda dürfte erst ende november sein, wie cb ja sehr deutlich angedeutet hat
aber viele schließen daraus leider direkt, dass nvidia noch monate von einem release entfernt ist. im dezember sollen aber wohl erste karten in den handel gelangen... fürs weihnachtsgeschäft etwas spät, aber sicher keine ewigkeit mehr entfernt...
Naja, solange die OEM Verkäufe stimmen. Die Fanboys können sich dann die GTX200 Modelle kaufen, die momentan noch ausreichend aufgebort sind.KAOZNAKE schrieb:Wie oft meinst du wollen die Leute noch mit aufgewärmter Hardware "erfreut" werden?
Ich glaube, irgendwann ist selbst bei den Fanboys das Maß voll.
MountWalker
Fleet Admiral
- Registriert
- Juni 2004
- Beiträge
- 14.039
Der Satz macht so keinen Sinn, denn einj Athlon XP mit 64b SSE-Einheiten kann eben auch nicht genauso gut SSE-Berechnungen durchführen, wie ein Athlon64 oder Intelprozessor mit 128b SSE-Einheiten. Er kann es auch, aber nicht genauso gut. Derzeit ist vaber völlig unklar, wie gut oder schlecht oder vielleicht besser ATI bei GPGPU eingerichtet ist - meiner Meinung sollte man hier vielleicht auch mal berücksichtigen, dass ATI immernoch dermaßen stark an TMUs im Vergleich zur Shaderleistung spart, dass sich ATI keinen High-Quality-Modus fürs Texturfiltern erlaubt - bei der Vorgängergeneration G200 vs Radeon 4000 ist gerade Nvidia bei der klassischsten aller fest verdrahteten Rasterisierungstechniken überlegen und nicht umgekehrt. In einigen Links in diesem Thread wurde ja auch deutlich, dass Nvidia bei der aktuellen Generation bei Double-Precision deutlich weniger Leistung hat, als ATI. Also dieser ganze Ansatz, dass ATI hier voll auf Fixed-Function setzen würde, scheint mir auch einfach nicht wahr zu sein - in dieser ganzen Diskussion um den GT300 wird dieser nur mit G80/G90 bzw. GT100 verglichen, aber nicht hinreichend mit ATI. Und wie ich über zehn Seiten früher bereits sagte ist GPGPU auch Spielegrafikleistung, nur eben keine Leistung für Benchmarks von Spielen, für die niemand diese neuen Karten braucht, weil die auch mit alten Karten flüssig laufen, sondern für Spiele, die erst noch geschrieben werden. Mal als Erinnerung wofür GPGPU den Spieler interessiertKAOZNAKE schrieb:...
Zudem hat AMD da sehr wohl was zu bieten, mit OpenCL und den Compute Shadern kann eine AMD Graka "genauso gut" (je nach Software) GPGPU rechnen wie ne NVIDIA Graka. Aber ohne die Graka speziell dafür auszulegen. ...
Zuletzt bearbeitet:
GHad
Lieutenant
- Registriert
- Apr. 2008
- Beiträge
- 760
@Lübke: Na endlich sind wir und einig ;-)
Ich (meine eigene Meinung, IMHO, nur ich allein aufgrund meiner eigenen Erfahrungen) glaube jedoch nicht daran, dass Gamergrafikarten noch dieses Jahr in den Handel kommen. Mainstream-Grafikkarten erst recht nicht. Daher werde ich mir wohl Richtung Weihnachten ne HD5850 holen und ne Jahr lang alles zocken was ich will für ca. 150 Öcken. Was will ich mehr? In einem Jahr kanns dann schon wieder 180° andersherum aussehen und ATI kommt ins schwitzen, wer weiß was FERMI uns noch alles nettes beschert. Und interessant, gerade als Entwickler ist für mich das Ding auf jeden Fall nur noch ne ganze Weile lang wohl nicht bezahlbar (mit meinem Budget)
Greetz GHad
Ich (meine eigene Meinung, IMHO, nur ich allein aufgrund meiner eigenen Erfahrungen) glaube jedoch nicht daran, dass Gamergrafikarten noch dieses Jahr in den Handel kommen. Mainstream-Grafikkarten erst recht nicht. Daher werde ich mir wohl Richtung Weihnachten ne HD5850 holen und ne Jahr lang alles zocken was ich will für ca. 150 Öcken. Was will ich mehr? In einem Jahr kanns dann schon wieder 180° andersherum aussehen und ATI kommt ins schwitzen, wer weiß was FERMI uns noch alles nettes beschert. Und interessant, gerade als Entwickler ist für mich das Ding auf jeden Fall nur noch ne ganze Weile lang wohl nicht bezahlbar (mit meinem Budget)
Greetz GHad
Für die Wirtschaft ist das ja gut, wenn nicht sogar unverzichtbar. Aber wenn ich in so einem Elektronikladen stehe und die Massen von Leuten sehe die gerade abgezockt werden und überteuertes oder soger schlechtes/unpassendes Kram kaufen,... dann würd ich die am liebsten gleich ansprechen und beraten. Ich kann das manchmal einfach nicht mit ansehen. Naja, filleicht liegt das ja daran, dass sobald ich länger als 15 Minuten in so einem Laden stehe die ersten Leute anfangen mich anzusprechen, weil sie mich für einen Verkäufer haltendie informierten leute sind eine geringe minderheit...
Steiner_mC
Ensign
- Registriert
- Mai 2007
- Beiträge
- 158
@Disco Stu
Hmm kommt wohl daher, dass „Desaster“ auf meiner eigenen Meinungsbildung beruht und nicht auf der von Charly. Hatte mich aber schon gewundert, was mich denn jetzt zum ATI-Fanboy macht. Dann bin ich ja beruhigt und nehme den letzten Absatz zurück =)
Hmm kommt wohl daher, dass „Desaster“ auf meiner eigenen Meinungsbildung beruht und nicht auf der von Charly. Hatte mich aber schon gewundert, was mich denn jetzt zum ATI-Fanboy macht. Dann bin ich ja beruhigt und nehme den letzten Absatz zurück =)
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@GHad: ich vertraue auf diese infos:
https://www.computerbase.de/2009-09/nvidias-antwort-auf-atis-hd5k-serie-ende-november/
ich denke, volker würde das nicht schreiben, wenn er wüsste, dass es nicht stimmt...
ansonsten ist alles noch sehr wage, da liegt auch die vermutung nahe, dass nv noch nicht so weit ist... ende november wissen wir zumindest, ob das gerücht um den nda-ablauf stimmt
https://www.computerbase.de/2009-09/nvidias-antwort-auf-atis-hd5k-serie-ende-november/
ich denke, volker würde das nicht schreiben, wenn er wüsste, dass es nicht stimmt...
ansonsten ist alles noch sehr wage, da liegt auch die vermutung nahe, dass nv noch nicht so weit ist... ende november wissen wir zumindest, ob das gerücht um den nda-ablauf stimmt
KAOZNAKE
Captain
- Registriert
- Aug. 2007
- Beiträge
- 3.844
@Lübke: Mag sein.
Da hat man IMO nur ein Problem: Schon Physx schluckt relativ viel Leistung, die dann eben bei den fps fehlen.
Wenn dann noch Tesselation und wer weiß was noch ebenfalls über den Compute Shader (den ein G92 ja eigentlich gar nicht hat, oder?) laufen sollen, dann gute Nacht.
Bei ner dafür ausgelegten Architektur (GT300) mag das ja noch gehen, aber bei den alten Midrange-Karten? Sorry, das glaub ich erst wenn ichs sehe.
@MountWalker: Naja, an reinen Zahlen kann mans ja schon ganz gut vergleichen. Und da steht die 5870 vermutlich besser da als GT200 (DP-Performance). Wies bei GT300 aussieht, steht natürlich schon wieder auf einem anderen Blatt.
Mag sein, das im nächsten Jahrzehnt C++ als Programmiersprache das Sagen hat und alle aktuellen Grakas danngenauso alt aussehen, wie die Geforce 7 heutzutage.
Allerdings muss man auch eines sehen: (aus deinem Link)
"Whereas previously, you had the DirectX API, and some fairly well-documented techniques for taking advantage of it, now, you get a C compiler and a blank text-editing window, and you have infinitely many possibilities. So it takes much more effort to choose the optimal approach. I think we'll see a lot of developers heading off in a lot of different directions, which is great for the industry, but it's a lot more of an open problem for everybody than it has been in the past. You're not handed the toolkit of predefined solutions to everything this time around. "
Genau aus diesem Grund (mehr Aufwand-->teurer) glaube ich (noch) nicht an einen Durchbruch in diese Richtung. DX wird uns noch die nächsten 10 Jahre begleiten IMO.
Das Tim Sweeney das sagt, ist mir klar. Der will ja seine Engine verkaufen. Dem kanns nur recht sein, wenn alles komplizierter wird. Bisher gibts offensichtlich genug Leute, die sowas lieber selber machen.
FortissimoIV schrieb:@Kaoznake, ich hatte weiter vorne mal gemutmaßt, daß man wie bei den Mobile-Modellen DX 10.1 implementieren wird und wie bei G300 Tesselation über CUDA emuliert, um zu DX 11 kompatibel zu sein. Ein Shrink auf G92c und G200c wäre somit nicht abwegig,
Da hat man IMO nur ein Problem: Schon Physx schluckt relativ viel Leistung, die dann eben bei den fps fehlen.
Wenn dann noch Tesselation und wer weiß was noch ebenfalls über den Compute Shader (den ein G92 ja eigentlich gar nicht hat, oder?) laufen sollen, dann gute Nacht.
Bei ner dafür ausgelegten Architektur (GT300) mag das ja noch gehen, aber bei den alten Midrange-Karten? Sorry, das glaub ich erst wenn ichs sehe.
@MountWalker: Naja, an reinen Zahlen kann mans ja schon ganz gut vergleichen. Und da steht die 5870 vermutlich besser da als GT200 (DP-Performance). Wies bei GT300 aussieht, steht natürlich schon wieder auf einem anderen Blatt.
Mag sein, das im nächsten Jahrzehnt C++ als Programmiersprache das Sagen hat und alle aktuellen Grakas danngenauso alt aussehen, wie die Geforce 7 heutzutage.
Allerdings muss man auch eines sehen: (aus deinem Link)
"Whereas previously, you had the DirectX API, and some fairly well-documented techniques for taking advantage of it, now, you get a C compiler and a blank text-editing window, and you have infinitely many possibilities. So it takes much more effort to choose the optimal approach. I think we'll see a lot of developers heading off in a lot of different directions, which is great for the industry, but it's a lot more of an open problem for everybody than it has been in the past. You're not handed the toolkit of predefined solutions to everything this time around. "
Genau aus diesem Grund (mehr Aufwand-->teurer) glaube ich (noch) nicht an einen Durchbruch in diese Richtung. DX wird uns noch die nächsten 10 Jahre begleiten IMO.
Das Tim Sweeney das sagt, ist mir klar. Der will ja seine Engine verkaufen. Dem kanns nur recht sein, wenn alles komplizierter wird. Bisher gibts offensichtlich genug Leute, die sowas lieber selber machen.
Tamahagane
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 6.626
Raptor2063 schrieb:echt nett wie sich manche hier aufregen weil die gezeigte Karte (die in der Hand gehalten wurde) nur ein Demo-Sample war.
Du hast im Grunde recht... aber eine Karte so mies zu faken un dann noch zu behaupten sie wäre funktionsfähig... das is dreist.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
@KAOZNAKE:
naja der gleichzeitige einsatz von physx und tesselation dürfte schon sehr selten vorkommen. beides für sich genommen ist ja schon eher die ausnahme als die regel. aber die karte kanns halt und ggf. muss man dann in so einem spiel mit einschränkungen bei den quali-einstellungen oder einbußen bei den fps rechnen. für eine mittelklassekarte aber durchaus hinnehmbar (je nach preis versteht sich). beim preiskampf hatte nvidia allerdings mit so einem chip einen wahnsinns spielraum bzw enorme margen. schon in 65nm gibt es g92-karten bis runter in den 40,- € bereich. da könnte ich mir eine gts320 mit 128bit si und gddr5 ram vorstellen. bei 40 nm sollten für den chip dann locker 850 mhz drin sein. damit würde man spielend karten wie die gtx260 oder 4870 hinter sich lassen. die produktion der gpu wäre zu dem auch deutlich günstiger.
wenn nvidia keine anderen mittel (im sinne von g300-ablegern) zur verfügung hätte, könnten sie sich damit imho noch sehr gut über wasser halten, falls es machbar ist mit dem dx11-verschnitt...
@Ball_Lightning: niemand hat behauptet die karte wäre echt, nvidia hat nur gesagt, dass auf der pressekonferenz ein echter fermi gezeigt wurde und das stimmt ja auch diese kleine wortspielerei haben wir schon n paar seiten vorher diskutiert.
Schon Physx schluckt relativ viel Leistung, die dann eben bei den fps fehlen.
Wenn dann noch Tesselation und wer weiß was noch ebenfalls über den Compute Shader (den ein G92 ja eigentlich gar nicht hat, oder?) laufen sollen, dann gute Nacht.
naja der gleichzeitige einsatz von physx und tesselation dürfte schon sehr selten vorkommen. beides für sich genommen ist ja schon eher die ausnahme als die regel. aber die karte kanns halt und ggf. muss man dann in so einem spiel mit einschränkungen bei den quali-einstellungen oder einbußen bei den fps rechnen. für eine mittelklassekarte aber durchaus hinnehmbar (je nach preis versteht sich). beim preiskampf hatte nvidia allerdings mit so einem chip einen wahnsinns spielraum bzw enorme margen. schon in 65nm gibt es g92-karten bis runter in den 40,- € bereich. da könnte ich mir eine gts320 mit 128bit si und gddr5 ram vorstellen. bei 40 nm sollten für den chip dann locker 850 mhz drin sein. damit würde man spielend karten wie die gtx260 oder 4870 hinter sich lassen. die produktion der gpu wäre zu dem auch deutlich günstiger.
wenn nvidia keine anderen mittel (im sinne von g300-ablegern) zur verfügung hätte, könnten sie sich damit imho noch sehr gut über wasser halten, falls es machbar ist mit dem dx11-verschnitt...
@Ball_Lightning: niemand hat behauptet die karte wäre echt, nvidia hat nur gesagt, dass auf der pressekonferenz ein echter fermi gezeigt wurde und das stimmt ja auch diese kleine wortspielerei haben wir schon n paar seiten vorher diskutiert.
Zuletzt bearbeitet:
Turbostaat
Banned
- Registriert
- Apr. 2006
- Beiträge
- 6.240
@Lübke
Warum sollte der gleichzeitige Einsatz von DX11 und PhysX sehr selten vorkommen?
Viele Spiele werden in Zukunft auf DX 11 setzen - und auch deren Features nutzen - und selbst nvidia sponsored Spiele werden mit DX11 kommen.
Wenn ich schon sehe wie das Batman Spiel für ein paar läppische Fahnen und ein wenig Nebel fps Einbrüche von 50% hat (und das auf normal und nicht high) und dann müssten die Shader auch noch die Tessalationunit ausgleichen usw. Na dann viel Spaß.
Warum sollte der gleichzeitige Einsatz von DX11 und PhysX sehr selten vorkommen?
Viele Spiele werden in Zukunft auf DX 11 setzen - und auch deren Features nutzen - und selbst nvidia sponsored Spiele werden mit DX11 kommen.
Wenn ich schon sehe wie das Batman Spiel für ein paar läppische Fahnen und ein wenig Nebel fps Einbrüche von 50% hat (und das auf normal und nicht high) und dann müssten die Shader auch noch die Tessalationunit ausgleichen usw. Na dann viel Spaß.
Motkachler
Lt. Commander
- Registriert
- Sep. 2004
- Beiträge
- 1.563
@Lübke
Stalkerbilder mit Teselation geht jetzt schon sieht toll aus und der G300 ist nichtmal da.
Von wegen niemand macht sich was aus tesselation.
http://www.pcgameshardware.de/aid,6...gine-und-Aliens-vs-Predator/Grafikkarte/News/
Stalkerbilder mit Teselation geht jetzt schon sieht toll aus und der G300 ist nichtmal da.
Von wegen niemand macht sich was aus tesselation.
http://www.pcgameshardware.de/aid,6...gine-und-Aliens-vs-Predator/Grafikkarte/News/
- Status
- Für weitere Antworten geschlossen.