News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Limit schrieb:
@BustaFiles das ist nicht richtig. OpenCL hat nichts mit DX11 zu tun. OpenCL wird von der Khronos Group entwickelt und gehört damit zur selben Familie wie OpenGL. Allerdings bietet DX11 etwas ähnliches, nämlich Compute Shader.
?
OpenCL IST JETZT eine DX11 API, egal wer die wo entwickelt hat.
 
Auf heise steht heute
Zudem plant AMD Bullet Physics an die DirectCompute API von DirectX 11 anzubinden. Damit lassen sich die Compute Shader von Grafikchips mit Rechenwerken für DirectX 10 und neuer nutzen. Beispiele hierfür sind Radeon-HD-Grafikkarten ab der 2000er-Serie und GeForce-Karten ab der achten Generation.
[...]
Dies geht inzwischen so weit, dass der Nvidia-Grafikkartentreiber seit Version 186 die im Vergleich zum Prozessor leistungsfähigere GPU-Physikberechnung deaktiviert, sobald ein Grafikchip einer anderen Firma im Rechner erkannt wird.
Macht es dann für Spielehersteller überhaupt noch Sinn auf PhysX zu setzen, wenn es eine alternative gibt, die jeder nutzen könnte und garantiert kostenlos ist?


@BustaFiles über mir: Laut der News von heise kann man auch mti DX10 Grakas OpenCL nutzen
 
OpenCL IST JETZT eine DX11 API

Nö, OpenCL gehört nicht zu DirectX. Das was OpenCL bietet, bietet DirectCompute für DirectX.
Wozu um alles in der Welt sollte M$ sich zwei Standards für die gleiche Sache ins Boot holen?! :freak:
 
@BustaFiles: was hat denn bitte direct x 11 mit open cl zu tun? Oô
dir ist schon klar, dass open cl ein offener standard ist und dx11 ein reiner mirkrosoft standard?

es gibt cuda (nvidia), stream (ati), direkt x (mikrosoft) und open cl (offener standard)
 
Zuletzt bearbeitet:
Resumée von AnandTech über die erste Vorstellung des Fermi:
The price is a valid concern. Fermi is a 40nm GPU just like RV870 but it has a 40% higher transistor count. Both are built at TSMC, so you can expect that Fermi will cost NVIDIA more to make than ATI's Radeon HD 5870.

Then timing is just as valid, because while Fermi currently exists on paper, it's not a product yet. Fermi is late. Clock speeds, configurations and price points have yet to be finalized. NVIDIA just recently got working chips back and it's going to be at least two months before I see the first samples. Widespread availability won't be until at least Q1 2010.

I asked two people at NVIDIA why Fermi is late; NVIDIA's VP of Product Marketing, Ujesh Desai and NVIDIA's VP of GPU Engineering, Jonah Alben. Ujesh responded: because designing GPUs this big is "fucking hard".

http://www.anandtech.com/video/showdoc.aspx?i=3651
 
Auch NV konnte raytraicing ... aber glaub mir du wirst es nächstes jahr erleben. ratraicing benötigt wie auch rasterisierung sehr spezielle hardware oder muss über allgemein gehaltene hardware mit ein paar abstrichen genutzt werden.

es wird eine entwicklung geben wie bei der rasterisierung, spezielle teile der hardware um die nachteile künstlerisch wertvoll zu vertuschen, nur dummerweise nicht auf die gleiche weise umsetzbar wie bei der rasterisierung. Der Larrabee 1 wird diese Hardware ebenfalls noch nciht beinhalten, aber Intel schläft da nicht und wird es vorran treiben das große Titel herauskommen. Und sollte das erfolg haben, werden teile der aktuellen grafikgeneration die einen großteil ihrer rechpower bei spielen ausmachen brachliegen oder müssen über software emulation angesprochen werden. die folge sind enorme leistungverluste, bei diesen spielen.

und ich sage NICHT das NV diese veränderung BESSER meistern wird als AMD, aber sie haben sich in eine Position gebracht, in der sie warten können in welcher ausführungsmetode sich raytracing durchsetzte, ohne allzu groß auf die beiden gegner zu verlieren. Sie haben einen wichtigen Schritt gemacht zur allgemeineren Hardware und DAS ist nunmal wirklcih brilliand. Denn das einzige was sicher sein wird ist, dass INTEL wenn sie erfolg haben ALLE player was den Gamer markt betrifft praktisch bei null anfangen müssen.

Man darf nciht vergessen NV ist längst nciht der Bigplayer für den viele ihn halten. Genau genommen sind bei diesem dreiervergleich AMD und INTEL die big player und NV brauchte einen wirklcih gewaltigen sprung nach vorne um diese entwicklung zu überleben

Knackpunkt ist INTEL ist ganz klar favorit bei dieser sache. Und AMD stellt auch nciht erst Seit gestern Prozessorenv erschiedener Art her, währent NV ein spezialist ist.

Und was hier vielleicht gern anders verstanden wird ... ich habe NCIHT gesagt das AMD dabei vielleciht den anschluss verliert. NV ist da noch wesentlich gefährdeter und darum bin ich um so mehr beeindruckt, das ihre entwicklung dieses Problem nciht nur erkannt, sondern meiner meinung nach auch ausgezeichnet gelöst hat.
 
hier ein abstraktes Bild wie es wohl bei Fudzilla News hinter den Kulissen zugeht. :D:D:D:D:D

 
Dario schrieb:
Und so gut CUDA auch sein mag, welche Firma wird seine Software noch speziell auf CUDA anpassen,
wenn es jetzt mit DX11 eine einheitliche GPGPU API gibt ?
Direct Compute ist NICHT die einheitliche Schnittstelle, das ist Open CL!
 
ich sag nur 300 Watt wer will den sowas , die kann niemals leise sein bzw so wie die 5870
 
jo suppa. 8 pin anschluss... also neues nt kaufen wenns ne gt300 werden soll.....
 
Keine Ahnung, ob jemand auf den 16 Seiten davor das auch schon festgestellt hat, aber interssant fand ich es allemal.
Abgesehen von den theoretischen Leistungsschüben und Eckdaten, zweifle ich an der Funktionalität der von Herrn Huang so stolz hochgehaltenen Karte bzw. falls funktional, dass es sich ansatzweise um das finale Layout handelt. Warum?

Stutzig machte mich die merkwürdige Anordnung der Stromanschlüsse. (B.T.W. würde ich die "Von-Hinten-Stellung" bevorzugen - mehr Ordnung im System)
Egal - man sehe sich mal die Rückseite der Platine bei den Bildern auf pcpop an. Dabei fällt auf, dass die durchkomtaktierten Anschlüsse nur für EINEN 8-Pin Stecker VON DER SEITE ausgelegt sind. Die Karte hat aber unter der Haube einen 8-pin von hinten und einen 6-pin von der Seite. Bringt man das Layout mit der Steckeranordnung in Übereinstimmung, könnten beide Stecker zwar jeweils 4 Pins nutzen - das gleiche hätte man aber auch mit einem einzigen 8-pin Stecker erreichen können.
Wozu also das schräge Design? Jetzt komme mir aber keiner mit "SMD" oder so, bei den Stromstärken kommt nämlich nur pin-through in Frage.

Bemerkenswert auch, dass nvidia sofort nach der Vorstellung der AMD/ATi 5xxxer Serie natürlich was "viel Besseres" aus dem Hut zaubern kann. M.E. reines Säbelrasseln der Marketingabteilung - und da hat sich Jen-Hsung Huang ja noch nie die Butter vom Brot nehmen lassen. Nicht dass ich die Eckdaten oder Leistungsfähigkeit der Architektur anzweifeln möchte, aber ich denke wir müssen noch etwas länger als bis November warten...

(P.S. wenn überhaupt bin ich nvidia Fanboy)
 
Nvidia muss bei solchen monströsen Chipdesigns aufpassen, dass sie nicht das Voodoo Schicksal ereilt.

Ansonsten bin ich aber schon gespannt auf die Leistung. Primäre dürfte der GT300 vor allem im GPGPU-Bereich ordentlich performen.

MfG
 
Mir fällt da was ganz anderes spannendes gerade auf!

wenn NV eine Software lösung der tesselation bei dieser grafikkarte nutzt und daüfr auf die entsprechenden einheiten verzichtet hat könnte das bedeuten, das die letzte generation ebenfalls DX11 fahig gemacht werden aknn ... oder irre cih mich da?
 
könnte es nicht auch vielleicht so sein, das nvidia mit dem g200 refreshchip den grafikkartenmarkt bedient und mit dem g300 den gpgpu markt? nvidia will ja mit den refreshchip auch dx 10.1 einbauen und cuda zur physikberechnung haben die ja eh. sie brauchen open cl und dx11 ja nicht unbedingt
 
knuF schrieb:
jo suppa. 8 pin anschluss... also neues nt kaufen wenns ne gt300 werden soll.....

die hat ein 8Pin und 6Pin ....
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben