Welche Graka glaubt ihr wird die Beste werden? GF3Ultra Kyro3 oder Radeon2?

Welche Graka wird das Rennen um den Titel "Beste und Schnellste Grafikkarte" gewinnen

  • KYRO III (die wird einfach der Hammer, war der Vorgänger ja schon knapp dran)

    Stimmen: 29 31,9%
  • GeForce III Ultra (wie gewohnt NVIDIA war bis jetzt immer das Beste und wird es auch bleiben)

    Stimmen: 36 39,6%
  • Radeon II R300 (bei den technischen Daten kann sie ja gar nicht verlieren)

    Stimmen: 26 28,6%

  • Umfrageteilnehmer
    91
Original erstellt von Quasar
dann schau mal hierlang: http://www.gamespot.co.uk/stories/news/0,2160,2032272-2,00.html

....to be continued
Quasar


Und?

Auszug:
"Well what we've always called it officially is the NV2A. A lot of people have called it the NV25, but nVidia told us to call it the 2A instead and there are two reasons for that: one, the NV25 in the event that nVidia wouldn't use that part would be a PC part and it would be put in here. The second thing is the part that we have in the box is not just a super clocked NV20 but it actually draws some of the geometry features out of the NV30."

Also kein NV25 sondern eine Weiterentwicklung. Er (der inteviewte) würde ihn NV27.5 nennen.
 
Zuletzt bearbeitet:
um jetzt mal ein paar dinge zu klären:
angefangen hat das ganze doch mit moonies post, daß der nv25 alle hier aufgeführten karten hinter sich lassen würde (wohl in der Annahme, der NV25 wäre nicht die GF3ultra). du (DvP) hast dann geantwortet, das es noch ein "bisserl" dauern würde, bis die kommt.
dann hab ich gesagt, daß es die (NV25) schon gibt, und das die erste charge wohl in die xbox gehen wird.

Nein, der xbox-chip ist nicht (notwendigerweise) der gleiche, wie der NV25 (" the NV25,in the event nvidia wouldn't use that part, would be a pc part.."), sondern eine GF3 mit doppelt ausgelegter DX8 einheit...was den GF3 quasi zu einer "X-Box"MX degradieren würde...

ok?
Quasar
 
Jetzt gibt der Prof seinen Kommentar! ;)


Also BitBrothers oder wie die heissen Gute Infos noch nix Praktisches.


[h2]Kyro3[/h2] :wenn preis stimmt(, also nicht über 500,-) ist sie der sieger
[h2]Rade2[/h2]: SchöneDaten usw aber wo bleiben die Optimierten Spiele für deren Techink??? (nur für zukunft ca 1/2jahr ist sie scheisse)dann kommt ne neue generation)
[h2]gf3u[/h2]: Preise werden teurer sein....(128MB DDR_SGRam)
aber wer nur die taktrate von der haben will übertaktet ne Nomalo gf3 [preisleistung ausreichend]
[h2]x3dfx[/h2]: Vergesst die nicht die wollen die neueste Glide5 und opengl2 techink einführen. Und auch karten Produzieren.
[h2]Matrox[/h2] Ich bezweifle das die für den HighEnd Markt kommen
 
Original erstellt von Prof-Falmer
Jetzt gibt der Prof seinen Kommentar! ;)


................[h2]Rade2[/h2]: SchöneDaten usw aber wo bleiben die Optimierten Spiele für deren Techink??? (nur für zukunft ca 1/2jahr ist sie scheisse)dann kommt ne neue generation)
.....................

Sagt mal was ist mit euch allen los??? Radeon2 unterstützt exakt dieselben features wie GF3. Was faselt ihr da dauernd davon dass die keiner Unterstützen wird? Und sowas will ein Professor sein.
 
Da muss ich dich leider korrigieren. x3dfx hat einen Treibersatz gemacht, doch sonst ist dort nichts mehr..von Kartenproduktion ganz zu schweigen! Doch in den Foren werden Karten gebastelt (Rampages mit 150Mhz Chip und Speichertakt und so)..das ist eigentlich alles. Treiber kommen auch von der Community..das nenne ich liebe :)..Wer ein fan von 3dfx ist muss dort unbedingt reinschauen :D..

:D
 
die RadeonII kann (lt. aktueller feature-liste jedenfalls) doch noch ein paar kleinigkeiten mehr als die GF3:
pixel shader v1.4 (ich glaube mehr blend-operationen oder son zeugs)
TruForm (das hatten wir schon mal in nem anderen thread..)
und bestimmt noch ein, zwei andere kleinigkeiten, die mir im moment nicht einfallen....
was daraus wird haben wir ja schon bei der RadeonI gesehen, die auch etwas mehr als die GF2 konnte...NIX

Quasar
 
..Weil die Spieleentwickler unter druck von nvidia stehen?
 
Original erstellt von Quasar
die RadeonII kann (lt. aktueller feature-liste jedenfalls) doch noch ein paar kleinigkeiten mehr als die GF3:
pixel shader v1.4 (ich glaube mehr blend-operationen oder son zeugs)
TruForm (das hatten wir schon mal in nem anderen thread..)
und bestimmt noch ein, zwei andere kleinigkeiten, die mir im moment nicht einfallen....
was daraus wird haben wir ja schon bei der RadeonI gesehen, die auch etwas mehr als die GF2 konnte...NIX

Quasar

naja du verdrehst da doch wohl einiges, denn mir willst du doch sicher nicht erklären dass die radeon ein halbFlop geworden ist nur weil sie zusätzliche Features unterstützt hat. Oder doch? nein, na also.
Der Grund war doch wohl dass die Radeon im Vergleich zur Gf2 in den "Sachen" auf welche wir Spiele am meisten wert legen langsamer war. ODER NICHT??

Die Radeon kann von mir aus tausend Features mehr haben, aber sie muss in DX8 und OpenGL einfach schneller sein und aus.

Das einzige wahre Problem der Radeon ist dass nur eine Pixel Shader Version von einem Spiel unterstützt werden kann (heißt es zumindest) und dann müssen sich die Entwickler entweder für die v1.3 von nVidia entscheiden oder für den Neuen 1.4 von ATI. Also braucht die Radeon2 einen wirklich guten verkaufsstart um ein erfolg zu werden und auch die Programmierer zu überzeugen.

nVidia hat aber jetzt schon einen riesigen Marketingfehler gemacht: Sie ließen nämlich durchblicken dass die nächst GeForce Generation auch die v1.4 des PixelShaders verwenden wird. Na wenn das mal nicht ein Messerstich in den eigenen Rücken war.
 
Noch mal zu den BitBoys !

http://bbs.pcstats.com/beyond3d/messageview.cfm?catid=2&threadid=161

This is a thread from Beyond3D, and the poster in this thread attended a presentation from Petri Nordlunds, one of the engineers @ the BitBoys.

anyway, Here are the major infomation that I was able to collect from presentation:
- 0.17um process
- Advanced Geometry Operations
- Even Higher precision textures.
- Prog. pixel operations
- 64 bit, floating point color precision
- Speed!
- 16+GB/s for pixel shader alone (250 MHz memory speed.)
- 30 GB/s for the whole chip


And a little bit more...
board was wider than normal but, it's lenght (or depth) was just normal. chip was big, I think. bigger than my Radeon has.


As for the the number of pipelines...
Petri said: "Future needs at least four textures on single pass and 16 textures per pixel."


Also Jungs, das Ganze ist zwar in Englisch, aber die Fakten aus dem Thread können wir ja wohl erkennen.
Wenn die Boys endlich mal weiter als über (immerhin) eine Präsentation kommen, dann wird es im Highest-Performance-Bereich bestimmt interessant.
 
Jaja die Bitboys! HAHAHA über diese Glaze3D habe ich mich schon vor Jahren gefreut. Mittlerweile bin ich erwachsen geworden (so lange hats gedauert) und jetzt glaube ich nichtmehr alles was ich im internet lese. Wahrscheinlich versaufen die die ganzen Sponsorengelder und machen einfach garnix! Bis ihnen einer draufkommt.
 
hey die 30 GB/s kommen mir bekannt vor *denkmodusan*ah!*denkmodusaus*

3dfx Rampage 4xSLI 512MB DDR 4xT&L und und und...mhh dann muss das ding SEHR intelligent arbeiten um da ran zu kommen :D:D
 
@DvP:

ich verdrehe hier gar nichts!
aber du scheinst da dinge in meinem Post zu lesen, die da gar nicht drinstehen!!!

GANZ DEUTLICH:
1.) Die radeonII unterstützt die gleichen (bis auf die unterschiede in polynominalen flächen) features wie die GF3. dazu aber noch einige mehr!
2.) Die radeonI hat die gleichen features unterstützt (und tut es noch) wie die GF2. und dazu noch einige mehr.

3.) Die zusätzlichen Features der RadeonI haben bei den Spieleentwicklern keinen anklang gefunden (@pandora: durchaus möglich, das nVidia da ihre finger mit im spiel hatten..).

4.) Das selbe Schicksal befürchte (achtung: spekulation!!!) ich auch für die zusätzlichen features der RadeonII.

Natürlich bin ich nicht so bescheuert anzunehmen, eine graka flopt, weil sie mehr kann als eine andere..allein der gedanke klingt schon irgendwie krank...

wo hat nVidia bekanntgegeben, daß ihr Nachfolgeprodukt den Pixelshader 1.4 unterstützt?

schon der GF3 unterstützt, nach einiger dehnung des begriffes seitens nvidias, pixelshader v1.3. und darf sich damit DX8.1 compliant schimpfen.

und da bis zur markeinführung der next-gen der konkurrenz noch ein paar wochen bis monate vergehen, hat nvidia bis dahin einen nicht zu unterschätzenden vorsprung in der installed user base...plus der dann anstehende release von DX8 for the masses in form von GF3MX sollten eigentlich genügend spieleproduzenten bewegen, erst einmal bei höchstens pixelshader 1.3 zu bleiben.

Quasar
 
grosse spieleentwickler wie id-software werden auch in zukunft auf nvidia setzen..und da hat nvidia sicher die finger im spiel..vieleicht mit geld, drohungen oder auch nur durch zusatzinformationen. Aber es wird immer andere geben die dann den Pixelshader 1.4 benützen werden..und das wird die anderen sicher beeinflussen. Der Radeon2 wird vieleicht nicht in dem masse wie die GF3 verkauft, aber sie wird sicher wieder ein Stockwerk von der monopolstellung nvidias wegschiessen..
 
@Quasar

Also nochmal ganz von vorne.

Sorry dass ich da wohl was falsch verstanden habe aber du hast das mit den zusätzlichen features und das mit dem nix is draus geworden so unglücklich aneinadergereit dass ich es in einem unmittelbaren gesehen habe. Soviel dazu!

Was mich jedoch noch verwirrt hat war dass es doch im Grunde so wurscht wie nix ist was sie zusätzlich noch unterstützt. Soll es halt keiner nützen auch egal. Die GF3 kann schon genug wenn die Radeon dann alles besser kann supa und wenn sie mehr kann und das auch wer nützt auch supa.

Haben wir wenigstens hier einen Konsens gefunden?

Und wo ich das mit dem Pixelshader 1.4 gelesen habe. Verdammt du stellst Fragen. Mal suchen ober ich wieder hinkomme. War der Endpunkt einer mehrstündigen "surf quer durchs netz" session!


Scheiße:
"ATI Radeon II erst gegen Ende des Jahres

ATI wird Grafikkarten auf Basis des Radeon-II-Chips erst im vierten Quartal diesen Jahres ausliefern. Bisher hieß es, der Nachfolger der aktuellen Radeon-Chips sei noch im Sommer zu erwarten. Nun sollen im zweiten und dritten Quartal lediglich erste Samples an OEM-Hersteller verschickt werden. "

 
Zuletzt bearbeitet:
@DvP:
alles klar, mißverständnisse kommen vor und solange man [halbwegs] vernünftig drüber reden kann is ja auch alles halb so wild...
die ganze geschichte mit den features hab ich nur so breitgetreten, weil die ganzen nVidia-Hasser immer so auf der armen kleinen GF3 rumtrampeln, die ja eh langsam sei und kaum features habe.
Daß die ATI nun auch noch verspätet kommt war irgendwie klar...die teile werden heutzutage ja schon jahre im voraus angekündigt (von ALLEN!!) um die aktionärsversammlung ruhig zu halten...

wegen pixelshader 1.4, falls es dir noch einfällt, würde mich wirklich interessieren, der artikel.

Gute N8
Quasar

P.S.: beim Dronez-Thread sind doch schon einige ergebnisse mit GF3 und dicken cpus...guck mal auf seite 1 :)
 
Zuletzt bearbeitet:
Original erstellt von Ralph
@DVP und Quasar

Hier sind noch mal viele Info´s über die ATI RV200 zusammen getragen worden, mit Links etc.
Da wird auch noch mal auf die Pixelshader eingegangen.

http://www.pc-reports.de/de/index.php3?section=articles&action=show&id=152&com=comtra

Danke aber da steht leider nicht das was ich mittlerweile schon wieder stundenlang suche. Irgendwo hab ich gelesen dass die nächste generation der NV karten auch den 1.4 unterstützen wird was ati einen haufen bringen würde!
 
ok sorry das mit der unterstützung hab mich schlau gemacht

geForce3ultra wird 2 Infrastrukturen haben eine ist festprogrammiert die 2. ist eine art software chip, der programmiere kann also selbst festlegen was der machen soll

ati Radeon2 wird im gegensatz zu gf3/u dx8.1 unterstützen
und hat nicht nur v1.4 von shader sondern hat auch die smartshader-tech

zu Bitboys also die daten hab ich mir net angesehn aber egal
lass uns überraschen

zu x3dfx also ich hatte mal gelesen das sie sich wieder um neue Techs kümmern,treiber support auch ;)

zu Matrox sie müssen von ihren aufbohrungen weg seit g220 hat sich ja nicht viel verändert es heist immer nur Aufgebohrt

Inno3D Blade T64/XP128 diese karte wird wohl für uns nicht in frage kommen

gf2mxUltra?? muss nur nen BlueOrb rauf und Geniale Speicher Kühler


PS ich bin kein Prof in sachen hardware aber in sachen
Command&Conquer
Alpha Storm Force
 
Also habe gerade gelesen dass die ersten Radeon2 Board jetzt an spieleentwickler verschickt wurden. Hoffentlich ist das Feedback gut. Könnte der Lastwagen mit den Grakas nicht auf dem Weg nach Wien zu JoWood einfach vor meiner Haustür umkippen??
Will haben.

Übrigens will nVidia jetzt auch folgende Effekte einbauen bzw. unterstützen: Motion Blur (3dfx lässt aus der Versenkung grüßen), Depth of Field und Soft Shadows.
 
Alle 3 sachen stammen aus dem 3dfx T-Buffer... Endlich macht nVidia etwas mit der Technik von 3dfx. Jetzt lebt sie wenigstens in anderen Karten weiter *um3dfxtrauer* :( ..aber es gibt hoffnung..aus unerklaerlichen gruenden ist der name 3dfx an der boerse wieder aufgetaucht...

mähmüh
 
Zurück
Oben