ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
y33H@ schrieb:
[...]
Fermi wird sicher alles andere als leise und damit für mich uninteressant, zumindest mit lauter RefDesign-Kühlung. Laut = no go.
Aus meiner Sicht: Nein.

Wenn dus schon anschneidest, Stand nicht auf der Colorful GTX480 Verpackung von der Cebit sie benutze einen alternativen Kühler? (iGame oder wie die Doppellüfter-Kühlugnen be idenen heissen)
Hat mich noch etwas gewundert, jetzt schon ne ankündigung für einen alternativen Kühler ab Werk. Trotz Gerüchen über knappe Verfügbarkeit. Evtl. wars gar keine echte GTX480 Schachtel sondern sowas zusammengeflicktes wie bei Gigabyte wo noch von HD5k Series und OnBoard 7.1 Audiocontroller was drauf stand :)
 
Ein Vorteil von Fermi ist ja, dass er C++ verstehen soll, vielleicht ist das die Legitimation für einen hohen Preis. Kenne genügend Leute an der Uni die auf so was scharf sind.
 
@ DerToast

Es gibt diverse Custom-Designs, allerdings wird erst mal das RefDesign shippen.
 
@KAOZNAKE:
DX=Industriestandard

Physx=/ Industriestandard
sag ich doch, würden nv und ati an einem strang ziehn, wäre physx heute ein standard. ;) immerhin wollte amd auch schon mal agaia übernehmen.

Und nein, AMD konnte nicht mitziehen, weil NVIDIA ihnen klar und klipp gesagt hat, dass sie abdampfen können.
hast du quellen dafür? alles was ich bisher gelesen habe, sagt genau das gegenteil: dass nvidia versucht hat, amd mit ins boot zu holen, die sich aber für intel entschieden haben.
selbst im ati-forum hab ich das gelesen.

AMD unterstützt Bullet, sowie Havok. Reicht dir das nicht?
reichen, für was? was bringt uns endverbraucher das?
 
Lübke schrieb:
...
warum ati jetzt aber auf die idee kommt, ein eigenes physik zu bringen...

Das ist kein eigenes "physik" von AMD/ATI.

Bullet Physics hat schon EINIGE Jahre hinter sich. :)
AND/ATI "investiert" lediglich in die OpenCL unterstützung von Bullet Physics.
Eigentlich ein sehr guter Schachzug von AMD/ATI, Bullet Physics hat schon nahezu alle EntwiklungsTools dabei (Unterstützung für Maya, 3ds, blender, Cinema, ...), läuft bestens auch auf "nur" CPU (auch XBox, Wii, PS3, ...) und ist Ageia/PhysX im Toolset deutlich überlegen.
 
Zuletzt bearbeitet:
Wenn Bullet so toll ist - warum nutzt es bis heute praktisch keiner (mir fällt grade nur GTA4 ein)? *SCNR*

EDIT
Bei Bullet selbst sieht's auch eher trübe aus imo.
 
Wieso nutzt es heute keiner? Mach dich mal schlau! ;)

Aber klar, Geld für die Nutzung (so wie es bei einem anderen Anbieter sein soll) bekommen die Firmen nicht. :)
 
Zuletzt bearbeitet:
nur wenn nvidia das nicht mitträgt, ist das nichts anderes wie mit agaia. dann haben wir physx für nvidia-gpu, bullet für amd und havok für intel... unterm strich also keinen einheitlichen standard.
ich hab es eigentlich erst als positiv angesehn, dass nvidia den kleinen laden agaia übernommen hat, weil agaia einfach zu klein und unbedeutend war, um physx zu etablieren. aber bei nvidia scheiterts jetzt am konkurrenzdenken. ideal wäre wohl eine zusammenarbeit von agaia mit nvidia und amd gewesen, ohne dass einer den anderen aufkauft...
bin ja mal gespannt ob und welcher physikstandard sich durchsetzen wird...
 
y33H@ schrieb:
. PhysX und CUDA benötigen aber im Gegensatz zu Eyefinity keine zusätzliche Peripherie, das ist denke ich ein Argument.

PhysX benötigt für viele Spiele eine zusätzliche Grafikkarte. Und das ist, egal um welche Lösung von welchem Hersteller es sich handelt, imho ein No Go.
Dann lieber CPU berechnete Physik und X% weniger FPS, mit nicht oversized-bigger-physx-logo-effekten.

Lübke schrieb:
direct x ist kein standard, sondern eine proprietäre lösung, die ausschließlich unter windows funktioniert ;)

Das wurde doch vor kurzem erst noch diskutiert, leider wurden die meisten der Posts versenkt, weshalb es den einen Post eines hier weniger auftretenden Users zu suchen sehr schwierig werden lässt;
Es ist mitnichten Propritär bzw. offen im Sinne von Open Source gemeint, sondern in einer anderen Art und Weise, die z.b. Herstellerspezifische oder Hardwaregebundene Lösungen meint.
PhysX als Lösung funktioniert nur auf CUDA, was eine Hardware und Herstellereigene Schnittstelle bzw. Technik ist. Direct X hingegen ist ein Industriestandard und auf der X-Box und über 9x% im Personal Computer DIE dominierende Plattform für Computerspiele, bei DER dominierenden Plattform für Spielerelevanter / Consomuer Betriebssysteme. Ausserdem ist Direct X nicht Hardwaregebunden.

Natürlich ist Direct X in diesem Zusammenhang erwähnt ein defacto-Standard.

Lübke schrieb:
hätte ati damals mitgezogen, hätte physx ja auch nix mehr im wege gestanden.

Schon eine millionen mal behauptet, aber deshalb so pauschal trotzdem nicht der Wahrheit entsprechend. Nur weil zu einem Zeitpunkt angeblich Nvidia ihre Offenheit gegenüber ATI und PhysX geäussert hat, bedeutet das noch lange nicht, das ATI den abfahrenden Zug verpasst, oder eine 'freundschaftlich angebotene Hilfe' ausgeschlagen hat.

Lies dazu bitte mal hier: http://www.planet3dnow.de/vbulletin/showthread.php?p=4164305#post4164305

Was Nvidia von PhysX auf ATI hält sehen wir doch heute live. Es sollte von Anfang an ein Alleinstellungsmerkmal von Nvidia sein. Was man davon halten soll weiß man nicht erst seit 3Dfx.
Ergänzung ()

y33H@ schrieb:
Wenn Bullet so toll ist - warum nutzt es bis heute praktisch keiner (mir fällt grade nur GTA4 ein)? *SCNR*

EDIT
Bei Bullet selbst sieht's auch eher trübe aus imo.

Die Bullet Flames sind ziemlich derbe .. derbe unnötig.
Ergänzung ()

Lübke schrieb:
nur wenn nvidia das nicht mitträgt, ist das nichts anderes wie mit agaia. dann haben wir physx für nvidia-gpu, bullet für amd und havok für intel... unterm strich also keinen einheitlichen standard.

Wenn Nvidia hier was nicht mit tragen sollte, wäre das doch nur (wieder) ein blockieren neuer Techniken; Bullet auf GPU funktioniert mit OpenCL und Compute Shader, nicht direkt mit Stream, und beides wird von CUDA und den Nvidia Treibern unterstützt. Havok afaik auch.
 
Habt ihr schon mal das Fermi certified case von innen gesehen? Mich hats schier von den Socken gehauen, mit dem Riesen Torpedo Lüfter da drinne.

http://www.semiaccurate.com/2010/03/08/nvidias-gtx480-case-dissected/

Einfach nur geil :D

ich könnt schwören, der is so groß wie mein ganzes Case :eek:

nee Spaß ;)

Lübke schrieb:
@KAOZNAKE: ich habe nicht behauptet, dass ati nicht weiterentwickeln würde^^ ich habe lediglich geschrieben, dass ich bezweifle, dass sie nur einfach die shaderzahl erhöhen, weil die damit verbundenen nachteile imho langsam den nutzen übersteigen. es bringt nichts, die reine anzahl ins unermessliche zu steigern.

viel mehr vermute ich, dass der nächste schritt eine erhöhrung der effiziens pro shader sein wird.

Dat seh ich vollkommen anders. Ne Verdoppelung der Recheneinheiten hat noch nie genauso viel Leistung gebracht, insofern war die 5870 genau im Soll. Ich gehe weiterhin davon aus, das 100% mehr Shader zu ca 50% mehr Leistung bringen (bei vergleichabren Rahmenbdeingungen wie Takt usw.), ob jetzt, oder in 100 Jahren wenn du so willst. Wobei dann sicher was anderes am Start ist als ineffiziente Transistoren.

Kannst mir gern zeigen, wo es einen Fall gab, in dem man deutlich mehr Leistung zugelegt hat.


2. Die Effizienz wird ja ständig erhöht, das ergibt sich quasi "nebenbei". Hier bissl Cache, da bissl weniger Latenz. Natürlich nicht auszuschließen, das man von ner lahmen Architektur auch mal nen großen Sprung macht (G7 auf G8)


Lübke schrieb:
hast du quellen dafür? alles was ich bisher gelesen habe, sagt genau das gegenteil: dass nvidia versucht hat, amd mit ins boot zu holen, die sich aber für intel entschieden haben.
selbst im ati-forum hab ich das gelesen.

Interview

[Nvidia] put PhsyX in there, and that's the one I've got a reasonable amount of respect for. Even though I don't think PhysX - a proprietary standard - is the right way to go, despite Nvidia touting it as an "open standard" and how it would be "more than happy to license it to AMD", but [Nvidia] won't. It's just not true! You know the way it is, it's simply something [Nvidia] would not do and they can publically say that as often as it likes and know that it won't, because we've actually had quiet conversations with them and they've made it abundantly clear that we can go whistle.

Bullet ist nicht nur für AMD, das kann jeder beutzen wie er lustig ist.

Also Havok für INTEL (wird von AMD auch genutzt allerdings)

Physx für NVIDIA und Bullet für alle.

Also ich bin für Bullet. Hand hoch wer noch. :D
 
Lübke schrieb:
hast du quellen dafür? alles was ich bisher gelesen habe, sagt genau das gegenteil: dass nvidia versucht hat, amd mit ins boot zu holen, die sich aber für intel entschieden haben.
selbst im ati-forum hab ich das gelesen.
Naja bei solchen Sachen wäre ich extrem vorsichtig. Genauso wie nVidia nicht sagen würde, dass sie AMD haben abblitzen lassen, würde AMD auch nicht sagen, dass sie kein Interesse hatten, egal wie es nun abgelaufen ist. Daher wird sich das kaum mit Sicherheit aufklären lassen. Nicht umsonst kann man solchen Behauptungen nur in irgendwelchen Foren nachlesen und nicht als News auf CB oder so. Dass Unternehmen schon seit längerem sich in Foren anmelden und Stimmung für sich bzw. gegen die Konkurrenz machen, dürfte bekannt sein.
 
milamber! schrieb:
PhysX benötigt für viele Spiele eine zusätzliche Grafikkarte.
Nur für die lächerlich geringe Anzahl an GPU-PhysX-Titeln, wovon imo nur zwei taugen. Im Übrigen wüsste ich nicht, was an Glassplittern, Rauch und Plastikplanen auf Gerüsten in Mirrors Edge ein "oversized-bigger-physx-logo-effekt" ist :rolleyes:
milamber! schrieb:
Die Bullet Flames sind ziemlich derbe .. derbe unnötig.
Ich nenne den Fakt, die Verbreitung sei gering und legst du mir das als Flame aus. Bravo, weiter so.
 
milamber! schrieb:
Bullet auf GPU funktioniert mit OpenCL und Compute Shader, nicht direkt mit Stream, und beides wird von CUDA und den Nvidia Treibern unterstützt. Havok afaik auch.

Havok FX ja, Havok allein nicht. Und FX ist seit dem Kauf durch INTEL eingestellt.

AFAIK
 
Lübke schrieb:
nur wenn nvidia das nicht mitträgt, ist das nichts anderes wie mit agaia. dann haben wir physx für nvidia-gpu, bullet für amd und havok für intel...unterm strich also keinen einheitlichen standard.
...

Das ist schlicht falsch!
Bullet Physics steht unter zlib Lizenz UND der OpenCL Port sollte es auch unter NvidiaGPUs tun. Ok, da muss Nvidia noch mächtig an dem OpenCL speed basteln.
Es steht jedem Frei, es zu verwenden.
 
@KAOZNAKE: Havok FX ist in diesem Zusammenhang schon längst nimmer aktuell;
http://www.engadget.com/2009/03/27/havok-and-amd-show-off-opencl-with-pretty-pretty-dresses/

y33H@ schrieb:
Nur für die lächerlich geringe Anzahl an GPU-PhysX-Titeln, wovon imo nur zwei taugen. Im Übrigen wüsste ich nicht, was an Glassplittern, Rauch und Plastikplanen auf Gerüsten in Mirrors Edge ein "oversized-bigger-physx-logo-effekt" ist :rolleyes:

Du weißt ganz genau das in diesem Fall immer von GPU PhysX die Rede ist, und ebenso das Mirrors Edge die berühmte ausnahme der vielleicht 7 oder 8 Titeln darstellt.
An der PhysX Engine auf CPU ist überhaupt nichts auszusetzen, wie auch an PhysX selbst nicht auszusetzen wäre ... wenn es nicht als GPU bescheunigter Part auf CUDA setzen, und in der Form wie sie Vermarktet wird, total gehyped werden würde. Aber wenn man PhysX @ CPU erwähnt, darf man Havok bitte nicht vergessen.


y33H@ schrieb:
Ich nenne den Fakt, die Verbreitung sei gering und legst du mir das als Flame aus. Bravo, weiter so.

Sei doch bitte ehrlich; das ist nicht ein einfach eserwähnen eines Umstandes, sondern ein hämischer Seitenhieb auf eine weniger verbreitete, offenen Technik.
Da muß man bei leibe nicht vorverurteilen, um das aus diesen einen Satz zu lesen.
Ergänzung ()

KAOZNAKE schrieb:
Also ich bin für Bullet. Hand hoch wer noch. :D

Icke .. icke und er!
 
Was du wieder für einen Bullshit in meinen Post rein interpretierst :rolleyes:

Bullet ist eine feine Sache, aber die Verbreitung wird dem nicht gerecht. Und es ist nicht zu erwarten, nur weil AMD jetzt meint, sich Bullet anzunähern, dass dessen Verbreitung auf einmal explodiert. Das hat mit Häme oder Seitenhieb rein gar nichts zu - aber du siehst das wie üblich ja aus einem befremdlich anderen Blickwinkel *Popcorn auspack, Trollfutter zück*
 
Ich brauche da keinen bullshit hinein interpretieren, der Satz spricht doch für sich selbst.
Niemand behauptet das Bullets Verbreitung explidiert, jedoch wäre es Wünschenswert wenn Nvidia mit PhysX nichts ändert, und Havok nicht aus dem Quark kommt (oder CPU basierend ähnlich gute Effekte ermöglicht, ohne die Performance herunter zuziehen, was imho in jedem Fall möglich ist, und auch schon umgesetzt wurde).
Das wäre für alle Konsumenten die beste Entwicklung.

Eine Propritäre Physik Engine ist für uns Kunden die schlechteste aller Möglichkeiten.

Dein Popcorn kannst du in der Microwelle lassen, ich hab keine Lust mich darum zu prügeln, und habe schon wieder viel zu viel geschrieben.

Ich bin wieder raus.
 
y33H@ schrieb:
...
Bullet ist eine feine Sache, aber die Verbreitung wird dem nicht gerecht. Und es ist nicht zu erwarten, nur weil AMD jetzt meint, sich Bullet anzunähern, dass dessen Verbreitung auf einmal explodiert. Das hat mit Häme oder Seitenhieb rein gar nichts zu - aber du siehst das wie üblich ja aus einem befremdlich anderen Blickwinkel *Popcorn auspack, Trollfutter zück*

Naja, die Verbreitung ist eigentlich doch recht gut. Wenn man dann noch beachtete, dass Bullet Physics _bisher_ nicht so gehypt wurde wie es Ageia/Nvidia mit ihrem Produkt tun, dann ist es für Bullet Physics schon ein sehr gutes Ergebnis.
Nur gehe ich davon aus, dass mit AMD/ATI die Verbreitung deutlich ansteigen wird.
Im speziellen denke ich, dass Bullet Physics auch ein Standard bei der TV/Kino Produktion in sachen Animation/Special effects werden kann. Da ist Zeit Geld und eine schnelle aber genaue Berechnung alles.
 
Zuletzt bearbeitet:
Ich glaube das Physx die "Findung" der richtigen Physik Engine unötigerweise sehr weit in die Länge ziehen wird.
Evtl hilft ja auch die nächste Konsolen Generation, hoffentlich dann aber nicht Physx...

€dit:
Naja, aber zumindestens bei dem X360 Nachfolger bin ich guter Hoffnung, da Gerüchte sagen, dass sie wieder mit AMD zusammenarbeiten, ich hoffe das stimmt...
 
milamber! schrieb:
Ich brauche da keinen bullshit hinein interpretieren, der Satz spricht doch für sich selbst.

Ja das tut er, er spricht nämlich genau die Fakten an. Ich kann da keinen Flame sehen. Fass dir mal selber an die Nase.

Zu GF100, OBR hat auch schon ne GTX470:
99432628.png


http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/16852-prvni-pohled-na-gtx-470

Mit bissl Glück könnten ma langsam mehr Leaks kommen.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben