News Wochenrückblick: Eine AMD-Grafikkarte und alle drehen am Rad

Christi schrieb:
@wahlmeister

zu der voodoo 2 brauchtest aber noch ne 2d karte- und die war damals oft eine matrox mystique z.b. ;)

Ich glaube zu der Zeit hatte ich meist ne 2 oder 4MB S3 Karte für den 2D Part, zwischendrin aber auchmal ne Matrox. 2D war damit echt OK, aber 3D ging damals nur mit ner Voodoo Karte vernünftig. Hach, das waren noch einfache Zeiten. Ein Dutzend Hersteller, aber alle Karten absolut gleich schnell. Auch die Einstellungen waren einfach gemacht. Irgendwann gab es dann einen Treiber wo man sogar FSAA anklicken konnte. Natürlich nur mit SLI oder Voodoo 3. Herrlich :)

Wirklich schade das Nvidia 3Dfx damals in den Ruin getrieben hat, so ein dritter Hersteller als echte Alternative hätte den Markt extrem belebt.
 
Definitiv hätte er dass vor allem wahrscheinlich auch mehr innovativ gefordert und noch was warum AMD nicht wie NV alles Computing rausnehmen tut aus dem Chip wie NV sind die Konsolen die können damit viel CPU leistung sparen.
 
Beste Überschrift ever!!
 
Das einzige, was am Rad dreht, sind eure Überschriften :)
 
wahlmeister schrieb:
Wirklich schade das Nvidia 3Dfx damals in den Ruin getrieben hat, so ein dritter Hersteller als echte Alternative hätte den Markt extrem belebt.

So ein Quatsch hoch zehn. Das hat 3Dfx schon ganz alleine geschafft, sich in den Ruin zu treiben. Schon erstaunlich, was für völlig hanebüchene Verzerrungen historischer Ereignisse von den Kiddies irgendwo aufgeschnappt und dann als "Tatsache" hingestellt werden.

Aber mal rein interessehalber: Wo kommen denn solche Legenden her? AMD Fanboy Foren? Oder irgendwelche abstrusen Verschwörungstheorieseiten im Darknet?
 
Komisch, ich hab das auch anders in Erinnerung: 3dfx ist größenwahnsinnig geworden und hat sich verzockt. Sie haben ihre Reseller vergrault, und wollten den Kuchen alleine haben. Das ging gehörig in die Hose. Statt die Architektur ihres Chips weiter zu entwickeln, hat man es mit Multi-GPU versucht.

Ich sage nur soviel: Voodoo 5, ein Riesenbrett mit einer Brigade an GPUs und externem Netzteil. Das Ding ist, glaube ich, nie im Handel erschienen.
 
Zuletzt bearbeitet:
Moriendor schrieb:
So ein Quatsch hoch zehn. Das hat 3Dfx schon ganz alleine geschafft, sich in den Ruin zu treiben. Schon erstaunlich, was für völlig hanebüchene Verzerrungen historischer Ereignisse von den Kiddies irgendwo aufgeschnappt und dann als "Tatsache" hingestellt werden.

Aber mal rein interessehalber: Wo kommen denn solche Legenden her? AMD Fanboy Foren? Oder irgendwelche abstrusen Verschwörungstheorieseiten im Darknet?


Woher sonst?

Die Fanboy-Gemeinde ist ja noch deprimiert, dass Ihre <300Euro-Karte nicht in den vorher gehypten 1080-Sphären rechnet
und somit nvidia zum ~halben Preis die Show stiehlt.
(mal abgesehen von 2x CF in 720p/low quality vs 1x 1080 in 4k/ultra quality).

Nun kommt noch das Problem mit den Leistungsüberschwingern dazu... omg

Zum Glück ist ja NV das grösste Übel der Welt immer als Backup-Ebene verfügbar:
-3dFx kaputt gemacht, und wenn man schon dabei ist matrox, s3 und PowerVR ebenso zum ausstieg aus dem Mainstream-PC-Segment gezwungen.
(3dFx waren einfach nur spät dran, der Rest hatte keinen Bock mehr im Technikrennen für Gamer Geld zu verfeuern und hat sich anderweitig spezialisiert)

-die 970 auf den Markt geworfen, die erst höchst-gelobt wurde und nach dem Schnittstellen-“Skandal“ nicht mal mehr genug 2D-Leistung für
Office Workstations bot...

:D
 
wahlmeister schrieb:
keine Legenden, eigene Erinnerungen von damals.

Dann sind Deine Erinnerungen extrem verzerrt bzw. schlicht faktisch falsch. nVidia hat 3Dfx nicht in den Ruin getrieben. Das ist eine völlig lachhafte und unhaltbare Behauptung, die nichts mit den historischen Tatsachen zu tun hat.

nVidia, 3Dfx, S3, ATI, PowerVR, Matrox standen damals in einem ganz normalen Konkurrenzverhältnis zueinander. 3Dfx hat sich selbst in die Insolvenz manövriert, da sie den Trend weg vom 3D Add-On Board und hin zum kombinierten 2D/3D Beschleuniger unterschätzt und verpennt haben.

Die 2D/3D Voodoos (ab Voodoo 3) gerieten dann stark ins Hintertreffen als 3Dfx krampfhaft an 16-bit sowie Glide/OpenGL festhielten, während andere wie ATI und nVidia längst 32-bit Farbtiefe und das immer wichtiger werdende Direct3D unterstützten. Da konnten die Voodoos in Sachen Bildqualität nicht mehr mithalten und wurden bei den Spielern immer unbeliebter, zumal ATI und nVidia (und Microsoft mit D3D) in Sachen Performance aufschlossen.

3Dfx wollte es dann mit einer Super-Voodoo rausreißen (die geradezu sagenumwobene Voodoo 5-6000), aber die Entwicklung dauerte und dauerte und es kam nie wirklich etwas Brauchbares bei raus.
Das waren alles Fehler und Fehleinschätzungen von 3Dfx selbst, die dann letztlich in die Insolvenz mündeten.

Im Zuge der Insolvenzabwicklung hat nVidia dann Teile von 3Dfx aufgekauft (wegen der Patente und Know-How). Das ist ja nun nicht weiter ungewöhnlich. Ein Teil der Belegschaft ging auch zu ATI. Völlig normale Geschäftsvorgänge.

Siehe auch hier:

Although 1997 was marked by analysts as a turning point for 3dfx due to the marketing led by the new CEO Greg Ballard, there was criticism of Ballard's understanding of R&D in the graphics industry. Single-card 2D/3D solutions were taking over the market, and although Ballard saw the need and attempted to direct the company there with the Voodoo Banshee and the Voodoo3, both of these cost the company millions in sales and lost market share while diverting vital resources from the Rampage project.[3] Then 3dfx released word in early 1999 that the still-competitive Voodoo2 would support only OpenGL and Glide under Microsoft's Windows 2000 operating system, and not Direct3D. Many games were transitioning to Direct3D at this point, and the announcement caused many PC gamers–the core demographic of 3dfx's market–to switch to Nvidia or ATI offerings for their new machines.
 
Moriendor schrieb:
Dann sind Deine Erinnerungen extrem verzerrt bzw. schlicht faktisch falsch.
3Dfx hat sich selbst in die Insolvenz manövriert, da sie den Trend weg vom 3D Add-On Board und hin zum kombinierten 2D/3D Beschleuniger unterschätzt und verpennt haben.
Die 2D/3D Voodoos (ab Voodoo 3) gerieten dann stark ins Hintertreffen als 3Dfx krampfhaft an 16-bit sowie Glide/OpenGL festhielten, während andere wie ATI und nVidia längst 32-bit Farbtiefe und das immer wichtiger werdende Direct3D unterstützten. Da konnten die Voodoos in Sachen Bildqualität nicht mehr mithalten und wurden bei den Spielern immer unbeliebter, zumal ATI und nVidia (und Microsoft mit D3D) in Sachen Performance aufschlossen.
3Dfx wollte es dann mit einer Super-Voodoo rausreißen (die geradezu sagenumwobene Voodoo 5-6000), aber die Entwicklung dauerte und dauerte und es kam nie wirklich etwas Brauchbares bei raus.
Das waren alles Fehler und Fehleinschätzungen von 3Dfx selbst, die dann letztlich in die Insolvenz mündeten.

Einigen wir uns einfach darauf das NV eine deutliche Teilschuld am Ende von 3dfx trägt.
Das verstoßen der retailer war aus der Sicht von vielen ein grosser Fehler, das stimmt. Aber richtig durchgezogen hätte es nichts am Markt geändert. Das Problem war nun das Nvida Patente von 3dfx bewusst verletzte und grosse Mengen Chips aufkaufte und Kapazitäten blockierte wodurch 3dfx massiv in Produktionsrückstand geriet. Sie konnten die V5 6000 einfach nicht mehr in größeren Stückzahlen produzieren. Fertig entwickelt war diese Grafikkarte schon, sonst gäbe es nicht soviele Prototypen. NV musste 3dfx praktisch kaufen um alle drohenden Gerichtsverfahren zu kippen.

16bit auf einer Voodoo war keineswegs ein Nachteil da es wesentlich besser aussah als das 16bit der Konkurrenz. Einen wirklich gravierenden Unterschied zwischen 3dfx 16bit und NV32Bit gab es nicht.
In Sachen Bildqualität war 3dfx sowohl ATI als auch NV Meilenweit vorraus. Jedes Spiel der damaligen Zeit das Glide unterstützte sah in Glide wesentlich beeindruckender aus als in D3D. Das weiss ich 100%ig aus eigener Erfahrung damals.
Ausserdem hatten sie beim AA fast 10 Jahre Vorsprung. Wenn man sich mit allen anlegt, insbesondere mit Microsoft damals wird das selten ein gutes Ende nehmen. Man kann spekulieren ob man mit der reinen Chipfertigung besser gefahren wäre, sicher ist aber das MS das (unbestreitbar unterlegene) DirectX massiv gepusht hat und das NV damals nicht fair gespielt hat. ATI hatte sich in der Hinsicht damals fair verhalten.

Meine Spekulation ist ja das wenn 3dfx damals obsiegt hätte Microsofts DirectX niemals die Marktbeherrschende Stellung eingenommen hätte. Ähnliches sieht man ja heute wieder, MS pusht DX12 obwohl Vulcan die deutlich überlegene Technologie ist.
 
wahlmeister schrieb:
*Komplettzitat entfernt*

Dem kann man wirklcih nur so zustimmen schön geschrieben. Leider wird weder Nvidia noch Intel anständig für ihre verbrechen und illegalen machenschaften zur rechenschaft gezogen. Ist halt die industrielle Mafia..
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
Smeagol42 schrieb:
Hier kann man wenigstens noch was schreiben, ohne dass es in der Flut der Kommentare untergeht.^^
Woher kommen eigentlich diese enormen Emotionen, wenn es um Grafikkarten geht? Anscheinend zählt jedes letzte Prozent an Leistung, jedes Prozent an Übertaktbarkeit....
Wieso haben die Leute so eine persönliche Beziehung zu AMD oder NVidia? Sowas kennt man sonst fast nur aus dem Sport oder der Religion. Ich meine, es geht um Grafikkarten, die steck ich rein und dann sieht man sie nie wieder. :freak:

Schönen Sonntag!

Stimmt eigentlich... wie du das umschreibst! Fast schon religiös das alles, aber he, die RX 480 hat mich trotzdem enttäuscht :evillol:

Wahrscheinlich ist diese ganze Gebundenheit damit zustandegekommen, daß die Grafikkarte wohl das am öftestens getauschte PC-Teil ist, ich kenne zwar keine Statistiken dazu, aber ich könnts mir vorstellen...

Ich meine, dieselben Gespräche führt man auch nie über Netzteile oder RAM-Chips, aber bei Grafikkarten gehts rund, vor allem wenn AMD noch immer keine richtige Konkurrenz zu NVIDIA darstellt um damit deren Monopolstellung einwenig ins Wanken zu bringen...

LG
 
@R3sist_the_NW0:
Was hat dich denn an der RX-480 enttäuscht? Also klar haben manche Leaks darauf hingedeutet, dass die RX-480 noch mehr Leistung haben wird, aber eigentlich ist die Leistung ja ok. Und wenn ich den Test der RX-480 richtig gelesen haben, lässt sich selbst bei der Referenz RX-480 nochmal gut +15% Leistung durch OC herausholen. Dadurch erreicht diese dann wirklich die Leistung einer Fury (in FHD). Und die Fury ließ sich bekanntermaßen kaum übertakten.

Wenn jetzt noch Custom RX-480 mit einem 8Pin Anschluss erscheinen, könnte sogar noch mehr möglich sein. Was der Chip mit OC wirklich schaffen kann, weiß man aktuell aufgrund der Kühlung und zu geringen Stromversorgung wohl noch nicht oder?
Der Nachteil der unsauberen Lastverteilung wäre mit einem 8Pin Anschluss auch behoben. Nur wäre dann die GPU sicherlich nicht mehr ganz so sparsam wie erhofft, aber gegenüber der vorherigen Generation wäre noch immer eine deutliche Steigerung da.
Wenn dich gerade dieser Punkt enttäuscht, verstehe ich das absolut.
 
Zuletzt bearbeitet:
borizb schrieb:
Ich lass das mal hier:

https://bitcointalk.org/index.php?topic=1433925.msg15438155#msg15438155

Anhang anzeigen 566983

Bin mal gespannt ob wirklich die Karten dafür verantwortlich waren oder das Netzteil/Mainboard.

Joshua2go schrieb:
Sieht eher nach einem Billignetzteil, wo an den Kontakten noch ein paar milligramm eingespart wurden aus. Hauptsache AMD ist Schuld!:rolleyes:

In dem Beitrag steht weiter oben das der Typ 3x RX480 auf dem Board verbaut hatte. Irgendwann ist Schluss, dann brennt der Slot oder wie hier gesehen das 24 PIN Stecker vom Mainboard :king:
 
@wahlmeister: Nahezu alles absoluter Unsinn. Ich habe wirklich seit sehr langem nicht mehr so viel Unwahrheiten in einem Post gelesen. Mit den Patentstreitigkeiten zum Beispiel ging es von beiden Seiten hoch her. Das war eben so wie bei Samsung und Apple heute. Das nahm sich nix. Hier einseitig bei nVidida eine Schuld zu sehen oder sogar die Übernahme der "intellectual property" als Abwendung drohender Gerichtsverfahren zu sehen ist schon extrem facepalmwürdig. So ein Unsinn.
nVidia wollte sich schlicht die Patente vor der Konkurrenz sichern als 3Dfx pleite war. Die waren halt beim Abnagen der Knochen in der ersten Reihe.

Oder zur Voodoo 5-6000, die angeblich von nVidia so furchtbar behindert wurde... was für eine lachhafte Behauptung. 3Dfx hatte völlig unabhängig von nVidia Riesenprobleme (Bugs, Inkompatibilitäten usw.) mit der Karte und wollte diese mit einem externen Netzteil(!) ausstatten, was damals große Schlagzeilen gemacht hat. Die hatten ihre Produktion ganz alleine nicht im Griff. Da brauchte nVidia nicht nachhelfen.

The Voodoo 5 6000 never made it to market, due to a severe bug resulting in data corruption on the AGP bus on certain boards, and was limited to AGP 2x. It was thus incompatible with the new Pentium 4 motherboards. Later tests proved that the Voodoo 5 6000 outperformed not only the GeForce 2 GTS and ATI Radeon 7200, but also the faster GeForce 2 Ultra and Radeon 7500. In some cases it was shown to compete well with the GeForce 3, trading performance places with the card on various tests.[11] However, the prohibitively high production cost of the card, particularly the 4 chip setup, external power supply and 128 MB of VRAM (a very large amount at the time), would have likely hampered its competitiveness.

Aber ist gut. Ich habe begriffen, dass Dich Fakten nicht interessieren und Du offenbar Deine eigene Weltsicht haben möchtest, in der nVidia die armen kleinen 3Dfx Welpen platt getrampelt haben (wobei das Kräfteverhältnis damals eher genau umgekehrt war). Diese Sicht lasse ich Dir auch gerne. Man muss ja auch nicht alles immer bis zum Ende ausdiskutieren. Agree to disagree. Kein Problem.

Eines sei aber noch gesagt. Ich bedauere den Fall von 3Dfx auch. Ich war lange Jahre glücklicher Besitzer einer Monster 3D und von zunächst einer und später 2x Voodoo 2 im SLI. Es ist schade, dass sich 3Dfx durch einen gewissen Hochmut bzw. die Arroganz gefühlter Unbesiegbarkeit durch schlechte Planung und zahlreiche Fehlentscheidungen in die Insolvenz manövriert hat. Das hat aber einzig und allein das 3Dfx Management zu verantworten gehabt.
Da hätte es im Management dringend jemanden mit mehr Weitsicht gebraucht, denn dass 2D/3D Kombikarten und D3D sich durchsetzen würde, war absehbar. Die Entwickler hatten schon lange die Schnauze voll für jeden Grafikkartenhersteller eine Extrawurst braten zu müssen und jeder war froh über die kommende Standardisierung per API.
3Dfx dagegen wollten mit dem Kopf durch die Wand, hatten die Scheuklappen angelegt in der Absicht ihr Ding durchziehen und haben sich dabei verrannt, während ATI und nVidia die Profiteure waren. Insgesamt betrachtet in der Tat schade, da eine dritte Kraft im GPU-Bereich auf jeden Fall wünschenswert wäre.
 
Zuletzt bearbeitet von einem Moderator:
neueinsteiger84 schrieb:
@R3sist_the_NW0:
Was hat dich denn an der RX-480 enttäuscht? Also klar haben manche Leaks darauf hingedeutet, dass die RX-480 noch mehr Leistung haben wird, aber eigentlich ist die Leistung ja ok. Und wenn ich den Test der RX-480 richtig gelesen haben, lässt sich selbst bei der Referenz RX-480 nochmal gut +15% Leistung durch OC herausholen. Dadurch erreicht diese dann wirklich die Leistung einer Fury (in FHD). Und die Fury ließ sich bekanntermaßen kaum übertakten.

Wenn jetzt noch Custom RX-480 mit einem 8Pin Anschluss erscheinen, könnte sogar noch mehr möglich sein. Was der Chip mit OC wirklich schaffen kann, weiß man aktuell aufgrund der Kühlung und zu geringen Stromversorgung wohl noch nicht oder?
Der Nachteil der unsauberen Lastverteilung wäre mit einem 8Pin Anschluss auch behoben. Nur wäre dann die GPU sicherlich nicht mehr ganz so sparsam wie erhofft, aber gegenüber der vorherigen Generation wäre noch immer eine deutliche Steigerung da.
Wenn dich gerade dieser Punkt enttäuscht, verstehe ich das absolut.

Ich finde es einfach enttäuschend, daß die alte GTX 970 im Vergleich zu der RX 480 immer noch so gut abschneidet!

Die Preis-Leistungs-Leiher hat keine Einfluß auf mich, da ich einer bin, der alle paar Jahre mal ein Teil tauscht, aber NIE alle 6 Monate oder gar jährlich auf aktuellem Stand sein muß. Weshalb die Grafikkarte wohl zu Kaufdatum dementsprechend stark gewählt werden sollte.

Gerade eben habe ich so einige Computerteile gekauft um mir zumindest meinen ersten 6-Core zusammenzustellen, alleine die Ausgaben fürs Motherboard waren ungewohnt für mich, habe ich doch bisher immer so um die 100 Euro für ein Asrock ausgegeben, und nun über 200 Euro für ein X99...

Nun ist die Grafikkarte dran woran 3 Monitore angehängt werden sollen, Rennspiele sind ausschlaggebend bei 3-Monitor-Betrieb, Shooter kann ich auch auf einem einzelnen spielen, ABER ich möchte nicht schon wieder eine schwachbrüstige Grafikkarte kaufen, die dann nach 2 Jahren anfängt hinterherzuhinken.

OBWOHL

einige Online-videos gezeigt haben, daß auch alte Grafikkarten, wie meine HD 7850 und HD 6850, immer noch gut neue Titel spielen können, nicht alle Einstellungen auf Ultra, aber die unwichtigen Details regel ich runter, im Notfall sogar etwas die Auflösung, und so kann auch ich zufrieden neue Titel spielen, wenn ich denn mal wieder Zeit habe, obwohl ich leider immer ca. 2 Jahre an Spieletitel hinterherhinke aufgrund meines Zeitmangels, das mag vielleicht von Vorteil sein, da ich also nicht zwingend nötig immer die aktuelle Hardware benötigen würde ;-) aber es ist manchmal auch ein mulmiges Gefühl sich absichtlich eine alte Grafikkarte zu kaufen, die ja nicht mal mehr produziert wird.

Und nun sind auch noch die Treibersupports für meine Grafikkarten in Legacy-Mode. :evillol:

Ich warte natürlich noch was sich tut mit den RX 480 Customs und auch mit der GTX 1060, aber wenn nichts hilft greif ich zu einer GTX 1070 und fertig...
 
neueinsteiger84 schrieb:
@R3sist_the_NW0:
Was hat dich denn an der RX-480 enttäuscht? Also klar haben manche Leaks darauf hingedeutet, dass die RX-480 noch mehr Leistung haben wird, aber eigentlich ist die Leistung ja ok. Und wenn ich den Test der RX-480 richtig gelesen haben, lässt sich selbst bei der Referenz RX-480 nochmal gut +15% Leistung durch OC herausholen. Dadurch erreicht diese dann wirklich die Leistung einer Fury (in FHD). Und die Fury ließ sich bekanntermaßen kaum übertakten.

Wenn jetzt noch Custom RX-480 mit einem 8Pin Anschluss erscheinen, könnte sogar noch mehr möglich sein. Was der Chip mit OC wirklich schaffen kann, weiß man aktuell aufgrund der Kühlung und zu geringen Stromversorgung wohl noch nicht oder?
Der Nachteil der unsauberen Lastverteilung wäre mit einem 8Pin Anschluss auch behoben. Nur wäre dann die GPU sicherlich nicht mehr ganz so sparsam wie erhofft, aber gegenüber der vorherigen Generation wäre noch immer eine deutliche Steigerung da.
Wenn dich gerade dieser Punkt enttäuscht, verstehe ich das absolut.

8pin stecker bringt rein gar nichts weil selbst ein 6pin 250watt~ bringen kann..

dieser 8pin stecker kram ist doch nur marketing =)

quelle:
https://www.youtube.com/watch?v=lrOhTy0kLn0
 
Zuletzt bearbeitet:
PTS schrieb:
8pin stecker bringt rein gar nichts weil selbst ein 6pin 250watt~ bringen kann..

dieser 8pin stecker kram ist doch nur marketing =)

Bei 150W Karte die ihre Energie nur aus dem Stecker zieht wäre das wohl so. Hier geht es aber eher um die 50% welche aus dem Slot gezogen werden. Mit nem 8-Pin Stecker hätte die Verteilung eher 2/3 Stecker und 1/3 Slot betragen können und die ganze Sache hätte nicht so hochgespielt werden können.

Auch wenn jetzt im Nachhinein gesagt werden kann: "Alles halb so wild! Es geht nichts kaputt."
Der Imageschaden ist da.
 
Tja dass ist nicht der Punkt ich glaube ja dass es an den Billig NTs liegt hatte selber mal eins vorübergehend und musste feststellen dass ganze System ist viel instabiler gelaufen seid dem. Aber egal es ist nicht die erste Graphikkarte die sowas macht also will nicht wissen welche dass noch alle machen von wem auch immer glaube sogar meine macht dass.

Ps. Wenn der Pcie Stecker nur zwei phasen hat muss halt der rest über den Slot kommen denke ich mal aber ob dass auch so ist liegt am Bios und am Board designe glaube ich.
 
Zuletzt bearbeitet:
Zurück
Oben