ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@milamber!: compute shader konkuriert zwar mit cuda, aber cuda hat einen ziemlich großen vorsprung. bis (und falls) compute shader im profibereich mit cuda gleichziehn kann, vergeht noch einige zeit. bis dahin ist dx11 auch bei nvidia längst ein alter hut. ist ja nicht so, dass wissenschaftliche anwendungen mal eben in zwei drei tagen entwickelt werden. von der ausgereifteren sdk für cuda mal ganz abgesehn.
open cl läuft auch auf cuda und ist daher sicherlich kein konkurenzprodukt. physx ist (leider) weiterhin cuda-exklusiv...
wenn man jetzt mal diesen ganzen ati vs. nvidia heckmeck aussen vor lässt, ist cuda und auch physx eine sehr potente technologie. was aber die marketingmenschen daraus machen, und wie man sich bezüglich eines technologietausches mit ati einigen könnte, steht leider auf einem völlig anderen blatt...
imho wäre physx, wenn es denn von allen aktuellen karten (also nvidia und ati) genutzt werden könnte, die erste große neuerung im grafiksektor seit langem.
und gpu-computing ist ohnehin grad auf dem vormarsch, und da ist cuda mit seiner möglichkeit, c(++) anwendungen direkt auf der gpu auszuführen, natürlich ganz weit vorne.

ob es nvidia heute noch was nutzen würde, ist eine frage, wer die implementierung in seine gpu besser hinbekommen hätte, ati oder nvidia. ich denke, der größte nutzen wäre in der generation aufgebraucht gewesen, in der nvidia diese technologie vor ati hatte. wenn ati mitgezogen hätte, hätten die radeons ja ebenfalls cuda und physx und es wäre kein vorteil mehr für nvidia gegenüber ati gewesen. aber gegenüber m$ ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

AwesomeSauce schrieb:
Alles aus dem Kontext nehmen, wies dir gerade passt was?

Da ist nix rausgerissen. Das ist jeweils die !vollstaendige! von ihm gegebene Antwort.
Kann man auch wunderschoen in dem Link nachlesen.


AwesomeSauce schrieb:
Anstatt hier über Ail herzuziehen, solltes du dich direkt an ihn wenden - sowas wäre fair.:rolleyes:


Zitieren ist kein ueber ihn herziehen.

Und wenn ich bei jeden, den ich auf ne Empfehlung im Internet hin kennen oder lesen sollte und dessen Aussagen verwunderlich sind, ne Nachricht ins Gaestebuch, Blog oder Forum schreiben wuerde, das ihm ne Brise Realitaet gut tun wuerde, haette ich ne Menge zu tun.

Auserdem, was wuerde das aendern?



milamber! schrieb:
Weil du es bei Charlie auch nicht tust? :p

:daumen:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Lübke
open cl läuft auch auf cuda und ist daher sicherlich kein konkurenzprodukt. physx ist (leider) weiterhin cuda-exklusiv...

Sicher läuft OpenCL auch auf CUDA, genauso wie auf Stream (und mit Stream auch auf SSE3 CPUs unter Linux/Windows). Und natürlich hat CUDA was Entwicklung und schon unterstützte Anwendungen angeht einen zeitlichen Vorteil gegenüber OpenCL und Compute Shader.
Aber das hat doch nichts mit "für Nvidia ein alter Hut" zu tun, ich sehe DirectX 11 bei ATI Ja nicht als 'Vorteil' im Sinne der Zukunftssicherheit (zu den neuen Karten von Nvidia, nicht den alten). Natürlich haben sie auch bald DX11 Karten im Portfolio, ich hoffe es sogar.

Und da ist dann halt Fraglich, selbst wenn Nvidia nochmal in eine wie der von dir angesprochenen Position gelangt, ob es dann noch Sinn macht, Anwendungen auf einer Schnittstelle zu programmieren die Propritär ist.

Mit OpenCL und Compute Shader, welche ihrerseits auf der jeweils eigenen Schnittstelle von Nvidia und ATI aufsetzen, ist doch heute eine deutlich bessere Alternative vorhanden. Und doch pusht Nvidia weiterhin ihr CUDA, wirbt (hab ich die Tage bei Ggogle gesehen) mit Entwicklungsschulungen, Fortbildungen etc. pp..
.. aber warum sollte ich als Entwickler mit zwei Hardwareunabhängigen alternativen noch auf CUDA programieren? Warum sollte ich potentielle Kundschaft ausschließen? Warum sollte ich auf zwei propritären Schnittstellen paralell etwas Entwickeln, wenn eine der zwei Alternativen sogar SSE3 x86er Unterstützt?


wenn man jetzt mal diesen ganzen ati vs. nvidia heckmeck aussen vor lässt, ist cuda und auch physx eine sehr potente technologie.​
Natürlich sind das beides potente Technologien, und ich würde mir eine ordentlich umgesetzte Physik Engine auch wünschen. Ob dies nun PhysX wäre, das Zukünftig auf Compute Shader oder OpenCL setzt, oder Havoc, oder Bullet, wäre mir dabei egal.
Es wäre sogar für alle Kunden von Vorteil wenn alle 3 Engines über OpenCL oder Compute Shader nutzbar wären, dann hätten die Spieleentwickler nämlich die Option aus drei GPU beschleunigten Physik Bibliotheken zu wählen, die ALLE Hardwareunabhängig sind. PhysX ist es aber nicht, und die Schuld darf man nicht ATI in die Schuhe schieben.

Aus diesem Grund, und einen weiteren, ist PhysX wie es jetzt ist für mich persönlich, aber auch für alle Kunden, zwar potent, aber unglücklich platziert und Umgesetzt.
  • Cuda PhysX ist Hardwareabhängig, propritär, und setzt auf eine propritäre Schnittstelle auf, obwohl es spätestens jetzt Alternativen dazu gibt. Wohl deswegen, aber nicht nur hängt PhysX den Erwartungen * wohl mehr als hinterher, und hat einfach eine ungewisse Zukunft .

  • Cuda PhysX wird von manchen Entwicklern so übertrieben aufgesetzt implementiert, das das Spiel mit PhysX fast unspielbar ist, und ohne PhysX schlichtweg scheisse ausschaut. Wohl weil Anscheinend nicht nur ein Großteil der Aufmerksamkeit der PhysX Effekte gegolten hat, auch weil NULL Ersatzeffekte dafür implementiert worden zu sein scheinen.
    Einfach nur für den Krassen mit / ohne Effekt. Und wenn dann behauptet wird, das wäre die Schuld der Entwickler, obwohl auf anderer Seite stolz verkündet wird, Nvidia hätte mehrere Dutzend Leute bei den Spieleentwicklern, um ihnen zur Hand zu gehen, und sogar eigenen Code zu implementieren, kann mir keiner erzählen, die hätten darauf kein Einfluss gehabt, vielleicht sogar genau das gefordert.

    Mit PhysX Hui, ohne PhysX Pfui; nur spielen die meisten von uns schon viel zu Lange um diese Mogelpackung spielend zu durchschauen.


*im CB Artikel über PhysX von Mitte 2008 war von knapp 14 Titeln mit GPU PhysX Unterstützung im gleichen Jahr die Rede. Die 14 haben wir erst jetzt - 1 1/2 Jahre später. Und von den 14 ist die hälfte so ein Witz wie Hot Dance Party, oder Star Trek D-A-C.
Von dem was da übrig bleibt, ist nochmal gut oder mehr als die hälfte so Hardwarefordernd, das wirklich die schnellste Nvidia GPU benötigt wird, um in nativer Auflösung bei geringen AA Einstellungen spielen zu können. Einige Titel sind da noch schlimmer; ohne eine Performance/High End Karte als DEDICATED PhysX Einheit ist dort kein Land zu gewinnen.

Unter Physik auf GPU hab ich mir etwas anderes Vorgestellt. Nämlich das das die Karte dies für ein paar Frames nebenher macht, und nicht dadurch total überfordert wird.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@milamber!: nicht dass wir aneinander vorbeireden: es ging jetzt darum, ob nvidia einen nutzen daraus gehabt hätte, wenn sie cuda und physx hätten als standart etablieren können. das bedeutet für mich, dass ati mit gezogen hätte, denn ohne ati wäre es kein richtiger standart (ok, dx10.1 galt auch als standart trotz mangelnder unterstützung seitens nvidia).

Es wäre sogar für alle Kunden von Vorteil wenn alle 3 Engines über OpenCL oder Compute Shader nutzbar wären, dann hätten die Spieleentwickler nämlich die Option aus drei GPU beschleunigten Physik Bibliotheken zu wählen, die ALLE Hardwareunabhängig sind. PhysX ist es aber nicht, und die Schuld darf man nicht ATI in die Schuhe schieben.
ati ist ganz sicher nicht daran schuld. zum einen gehören immer zwei dazu, zum anderen hab ich den leisen verdacht, dass intel da nicht ganz unschuldig dran ist, denn die unterstützung von intels propritären cpu-physik, havok ist im grunde für amd eher kontraproduktiv. eigentlich hätte amd nur die hände in den schoß legen müssen und sagen, "leute macht ihr ma mit eurer physik, wir warten einfach ma ab, was sich durchsetzen wird und fangen dann bei dem fertig entwickelten, endgültigen standart an zu investieren".

ich hatte vorher immer erwartet, dass amd es genauso machen würde und aus dem duell physx vs. havok als lachender dritter hervorgeht.
wobei ich mich auch frage, ob intel derzeit überhaupt an havok weiterbastelt.

und zum thema propritär: auch mmx, sse, x86 und x64 sind allesamt propritär. das ist überhaupt nicht das problem. das problem ist einfach, dass nvidia und ati in keinsterweise hier an einem strang ziehen.

was die umsetzung von physx in einigen titeln angeht, da geb ich dir recht, da wird bei physx ganz groß geklotzt, ums auch fett auf die packung schreiben zu können und in jedem review zu lesen, aber 1. werden die alternativen effekte stiefmütterlich behandelt und 2. ist die implementierung so schlecht und resourcenfressend, dass kleine karte wie die 8600gt ganz schnell an ihre grenzen kommen. aber das rumaasen mit resourcen kommt ja leider immer mehr in mode -.- ich nenne nur mal crysis und gta4 um die wohl bekanntesten beispiele für resourcenverschwendung aufzuführen...

ich an nvidias stelle hätte das ganze ganz anders gehändelt. eine gute engine aufkaufen und mit massig vordefinierten physx-effekten vollstopfen. diese engine zur kostenlosen verwendung durch alle spielehersteller freigeben (auch für hobbyprogrammierer einfach auf der nvidia hp zum download). das ergebnis wäre ein flut an physx-titeln, weil grade kleinere schmieden die einsparungen gerne mitnehmen würden und durch die vordefinierten physikeffekte wäre der teil der spieleentwicklung sehr billig und schnell umzusetzen und würde noch mit einem verkaufsfördernden physx-logo belohnt.

die 14 titel bis heute sind dagen wirklich mager. da muss nvidia bei den spieleherstellern kräftig die werbetrommel rühren, wenn physx kein mauerblümchen bleiben soll.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich weiß nicht ob PhysX für Spielehersteller frei ist, oder sie Lizenzen zahlen müssen, aber das sie es nicht so gemacht haben wie du es gemacht hättest, liegt wohl daran, das sie versucht haben PhysX als Zugpferd und Alleinstellungsmerkmal vor ihre Hardware zu schnallen.
Es hat wohl auch bei vielen Käufern funktioniert, und das "making bigger physx logo" auf jeder Karte, ob Entry oder High End, hat gewirkt. Der Kunde schaut heute jedoch in die Röhre, und hat von PhysX leider nicht so besonders viel.

Bezüglich Propritär, ja auch die anderen sind in dem Sinne propritär. Das wort gibt es zumindest laut Wikipedia eigentlich gar nicht richtig. Je nach Definition sind SSE, x86 und X64 auch Propritär, und nur Quelloffene Dinge fallen nicht darunter. Nach anderer Definition aber auch wieder nicht, z.B. gegenüber PhysX auf CUDA. So wie ich propritär verwende, und meine, ist es zwar ggf. ein Standard, würd aber aufgrund von verschiedenen Einschränkungen nur im Begrenzten Maße genutzt bzw. kann nur dort Eingestzt werden. Die Beispiele dort sind ganz gut gewählt.

In wie weit die Story mit Havok, AMD und Intel anbelangt, kann ich wenig zu sagen. Mich würde auch Interessieren ob zur Zeit noch an Havok gearbeitet wird. Ich hoffe es, denn zumindest soll Havok mittlerweile ja OpenCL unterstützen.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Die Diskussion was ist ein Standard und was ist kein Standard fand ich im anderen Threat schon zum lachen.

PhysX ist kein Standard aber DX11 ist ein Standart war da die Aussage.

Betrachten wir das doch mal genauer:

1. Mehrere Hersteller (in diesem Fall AMD/NV) sind vorhanden, davon hat einer ein Feature (in dem fall NV) für diesen Hersteller ist das ein Standard, der für ALLE SEINE PRODUKTE besteht. (Selbstverständlich sieht der 2. Hersteller das nicht als Standard, man unterstützt Konkurenz nur ungern.)

2. Mehrere Hersteller (in diesem Fall MS, Unix+Derivate, MacOS) sind vorhanden, davon hat einer ein Feature (in dem Fall MS) für diesen Hersteller ist das ein Standard, der für ALLE SEINE PRODUKTE besteht. (Selbstverständlich sieht der 2. Hersteller das nicht als Standard, man unterstützt Konkurenz nur ungern.)

Die Paralellen sind Frapierend oder? Der einzige Unterschied ist, dass der Standard von Beispiel 2 NV und AMD betrifft, da er 99% der Zielgruppe betrifft.

Das gleiche Beispiel könnte man mit AMD INTEL und IBM machen mit dem x86 "Standard" welchen es nur im PC Bereich gibt. Es ist eine Illusion, das es Standards gibt. Es gibt nur "Merkmale" welche ein Hersteller gebracht hat, welche sich derart verbreitet haben, dass er für ein Marktsegment als "must have" gilt. Hätte nv ein bisschen mehr Glück und/oder eine andere Strategie gehabt, würde man heute vielleicht PhysX auch zu diesen "Standards" zählen, welche sich durch puren Marktanteil gebildet haben.

EDIT: Hast recht es müsste StandarD heissen.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

machen mit dem x86 "Standart" welchen es nur im pc bereich gibt.

Um es ein bisschen schnippisch zu formulieren: wo soll es denn den x86 Standard sonst geben?

Es ist eine illusion, das es standarts gibt.

Und was ist mit USB? Das wird meines Wissens nach auch nicht nur von einem Hersteller promoted, der das Glück hatte, dass sich diese Schnittstelle derart verbreitet hat.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

es geht nicht darum, dass es x86 nur im pc bereicht gibt (wie Fetter Fettsack schon richtig sagt, wo auch sonst?) sondern dass es ein reiner intel standard ist, den nur amd und via gegen ordentliche lizensgebühren nutzen dürfen. nvidia wollte auch eine cpu bauen, aber intel hat ihnen die nutzungsrechte an x86 verweigert. die nutzung von physx steht meines wissens dagegen jedem offen. allerdings ist es derzeit so, dass wer physx will, auch cuda unterstützen muss.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

allerdings ist es derzeit so, dass wer physx will, auch cuda unterstützen muss.

Wodurch sich nun die Frage aufdrängt, was man machen muss, wenn man CUDA unterstützen will (im Sinne von Verwenden, damit PysiX verwendbar wird).
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

man kann es hardwareseitig implementieren, was die eleganteste, aber auch teuerste lösung wäre, oder es softwareseitig emulieren.
der vorteil für nvidia dabei wäre eine verstärkte verbreitung dieser gpu-schnittstelle, die sie intel vorenthalten könnten, im gegenzug für x86.
somit wäre intel dadurch benachteiligt, wenn auch ati cuda untestützen würde.
für ati selbst wäre es nur ein weiteres feature.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Was meine Aussage angeht, geht es darum das es x86 nur im PC Bereich gibt. Die Aufzählung war nar Wirkungsbereichen beordnet

1. betrifft nur NV
2.(und3.) betrafen alles um MS

Ich wollte damit sagen, das es auf den betrachteten Bereich ankommt ob man etwas als Standard betrachtet oder nicht.

Und zu USB, ATX, PCI usw, das sind Industrievereinbarungen mit der Absicht der Vereinheitlichungen und diese sind dabei als Ramenbedingungen gedacht. Wenn du dich mit diesen beschäftigen willst, sieht es nämlich wie folgt aus:

Heute ist PCI-E auf einem Mainboard und wird vom User als Standard angesehen, was nichts daran ändert, das verschiedene Ausführungen davon existieren und auch PCI und AGP zu beachten sind.

Worauf ich damit hinaus will: Es hängt IMMER von dem Bereich an den man betrachtet.

ein letztes Beispiel?

x86 ist Standard? Dann such ihn mal in den Prozessoren in deinem Fernseher, deiner PS3, deienr XBox, deinem Navi, deinem Handy ... (ich denke ihr wisst was ich mein)

So~ genug von dem Thema

aber das mit Cuda bzw PhysX ist ne gute Frage ... soweit ich mich erinnere würde es AMD Lizenzgebühren kosten wenn ihre Grafikkarten das unterstützen können sollten. Ich glaub PhysX ist nur in der Anwendung kostenlos (also für die spielemacher usw)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

(at) Neo_Xsendra

Für mich, und ds dürfte die weitläufigste Sichtweise sein, steht hier das Wort Standard als Induistriestandard und das kann etwas nur sein, wenn es durch jedes Unternehmen erlaubt ist diesen Standard, ob gegen Lizenzgebühr oder ohne Lizenzgebühr, grundsätlzich erlaubt ist, die durch den Standard definierte Technik zu fertigen. Das ist die Definition, nach der Organisationen wie ISO (nicht nur diese, auch andere Standardisierungsorganisationen) ihre Standards festlegen.H.264 ist ein Industriestandard, es ist kein freier Standard, aber es ist ein Standard. Ob X86 ein Industriestandard ist, ist in diesem Sinn fraglich, es war einmal einer, aber es ist seit dem Pentium niemandem mehr gestattet, sich zu den Fertigern dazuzugesellen - es gibt nur die alten Bestandsverträge mit AMD und Via(Cyrix), aber bspw. Texas Instruments darf nicht einfach auf die Idee kommen, jetzt mit Zahlung von Lizenzgebühren X86-Prozessoren zu fertigen. ARM hingegen ist ein Industriestandard, weil die definierte ISA durch jeden, sofern er Lizenzgebühren zahlt, gefertigt werden darf.

Deswegen ist OpenCL, das von einem Industriekonsortium definiert wird, ein Industriestandard, ob ComputeShader auch einer ist, ist vielleicht strittig, CUDA und ATI Stream sind keine und können nach ihrer derzeitigen Lizenz keine sein, weil nicht festgelegt ist, dass jeder CUDA- oder Streamprodukte fertigen dürfen würde, wenn er nur Lizenzgebühren zahle. Damit etwas Industriestandard sein kann, muss der Rechteinhaber grundätzlich jedem gestatten, diesen Standard zu implementieren,er darf dafür Lizenzgebühren verlangen, aber die Gebühren sind das einzige, was er bestimmen darf.

Ich werde nicht anfangen, mich mit Wikipediaautoren zu streiten, aber wenn man den Begriff Industriestandard beliebiger definiert, als ich das getan habe, macht man ihn komplett überflüssig, da dann jedes Produkt, egal wie proprietär es ist, ein Industriestandard wäre.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

So hab ich mir das auch gedacht, ich wollts nur mal etwas klarer ausformulieren, damits jedem klar wird. :cool_alt:

Ich füg mal noch hinzu, warum ComputeShader für mich strittig ist: (DX)ComputeShader-Hardware darf zwar durch jeden gefertigt werden, aber die (DX)ComputeShader-Schnittstelle zwischen (DX)ComupteShader-Hardware und (DX)ComputeShader-Programmen darf ausschießlich durch Microsoft gefertigt werden.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

es gibt nur die alten Bestandsverträge mit AMD und Via(Cyrix),
ich meine mich erinnern zu können, dass cyrix keinen vertrag mit intel hatte. meines wissens haben sie damals nur x86-kompatible cpus hergestellt, was teilweise zu kompatiblitätsproblemen mit einigen anwendungen geführt hat, weshalb sie trotz sehr hoher leistung und guter preise für den profi-sektor ungeeignet waren. via hingegen (die cyrix ja aufgekauft haben) hat eine x86-lizens. darum war nvidia ja mal an der übernahme von via interessiert. aber intel hat dann ja gesagt, dass sie ihre lizens entziehen würden, falls via nicht mehr das hauptunternehmen, sondern nur noch die tochter eines anderen unternehmens (in dem fall nvidia) wäre.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Hmm zugegeben, INTERNATIONALE Industirestandards sind tatsächlich Standard im eigendlichen Sinne, jedoch sind die im PC Bereich leider kaum mehr als eine Handvoll (wenn man tatsächlich mal von dingen wie verkabelung absieht) und beschränkin sich auf was ... drei bereiche?
1. die größe der festplattengehäuse und laufwerke
2. Die größe der Hauptplatine
3. Die Anschlüsse für Externe Geräte
und dann? müsst ICH schon GANZ stark überlegen ... ab dann fallen mir eigendlich nur noch physikalische grenzen (gehäusegröße) und hersteller "standards" ein

(erm wobei wir uns da immer weiter vom thema bewegen ... ich belass es daher jetzt auch mal dabei)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

milamber! schrieb:
Weil du es bei Charlie auch nicht tust? :p
Charlie ist quasi ein Redakteur. Das ist als ob man Aussagen einer beliebigen Seite nicht mehr zitieren dürfte.
Als Redakteur muss Charlie über alles erhaben sein und objektiv berichten und keine Lügen verbreiten.

Ailuros Aussagen in einem Forum sind ein vollkommen anderes Kaliber. Er verfügt über umfangreiches Insiderwissen und stellt es nicht im Rahmen einer News auf eine Newsseite.

Übrigens, Ailuros ist wie erwähnt eine Privatperson und gewiese Aussagen von ihm werden wie üblich überlesen:
Seit G92 kann man sich daran die Finger verbrennen. Und fuer so einen Kommentar bekomm ich natuerlich keine hitzigen Kommentare von den bekannten Unbekannten der AMD Fanboy-fraktion....
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7837964&postcount=11305
Ebenso wird die Tatsache das ich so eine Aussage hier verlinke ignoriert werden.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Charlie schreibt nicht nur News, er scheint doch auch viel in dem Forum unterwegs zu sein, oder nicht? Sag ihm direkt, das du meinst, das er lügen erzählt. Als "Lügen" würd ich das trotzdem nicht bezeichnen, denn nicht weniges was er schreibt trifft auch so oder so ähnlich zu.

Wie schon mal geschrieben, wenn Charlie so durchschaubar Parteiisch ist, was ja Grundlegend nicht das problem wäre, aber zusätzlich auch noch Unwahres Zeug verbreiten würde, frage ich mich warum er alle Nase lang in der c't zitiert wird. Die Redaktuere dort müssten doch nen ordentlichen Überblick haben, um zu wissen das Aussagen von Charlie aktuell oder zumindest im Nachhinein totaler Unfug waren.
Dem scheint aber nicht zu sein.

Beschwerst du dich so auch über die eher pro Nvidia geschriebenen News bei Fudzilla?

Also, wenn du der Meinung bist, er ist ein lügner, dann geh ins das Forum, und zoff dich mit ihm.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Neo_Xsendra schrieb:
...
und dann? müsst ICH schon GANZ stark überlegen ...
Ein Industriestandard muss nicht zwangsläfug von der ISO definiert sein, es reicht, dass die Bedingungen erfüllt sind - Fertigungserlaubnis für jeden (und wenns für Gebühren ist) und nicht nur für Auserwählte. Alles, was die Kronos Group definiert, sind Industriestandards, was das W3C definiert sind Industriestandards und einer der ältesten berühmten Industriestandards in der Computerwelt ist POSIX.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@Unyu & milamber!

Generell jemanden hinter seinem Rücken zu verunglimpfen ist nicht die feine englische.

Und auf aus dem zusammenhang gerissene Zitate geb ich persönlich auch nix.

ABER! es muss gestattet sein, aussagen von personen(vor allem wenn sie als unwiederlegbare wahrheit verkauft werden) anzuzweifeln, auch in abwesenheit. was aber nicht gleich kommen sollte mit grundlegender "schreibt nur mist" propaganda. (auch wenn ich ab und an zu denen gehöre, die dann sagen "so ne grottige auslegung hab ich selten gesehen", was sich aber IMMER auf den zu diesem zeitpunkt verlinkten text bezieht)

@MountWalker

Was nichts dran ändert das mir in der stelle die praktischen beispiele ausgehen ^-^

(apropo: physx ist gegen eine Lizenzgebür frei und von jedem nutzbar ... machts aber mMn nicht zu nem Standard o.o~ )
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben