News High-End mit GF110: Heute vor 10 Jahren erschien die Nvidia GeForce GTX 580

@Herdware @SV3N
korrigiert mich bitte, aber das kühldesign verwendete gainward bis hoch zur gtx980 und ab pascal war dann schluss. man kann jetzt natürlich diskutieren warum aber die ausführung war halt schon sehr fein und vorallem praktisch, aber - wie erwähnt - klobig. man hatte ja quasi eine etwas schlankere variante eines ac accelero (s1 plus?) auf seiner karte mit unten angebrachten, steck- /tauschbaren lüftern. 4 heatpipes, verschraubt, speicher blank - fertig. da war halt mitunter wenig karte und viel kühler - siehe u.a. hier
 
Hi,

meine aktuelle Grafikkarte in meinem GamePC ist die ASUS ENGTX580 DCII.
An der Seite von einem übertaktenten I7-920 @ 3,6 Ghz und 8 GB Speicher.

Beste GamePC den ich je hatte^^.

Vor 10 Jahren hat mich der selbst zusammengebaute Rechner ca. 1650€ gekostet - kein Cent bereut bis heute. Irgendwann haben sich dann meine Interessen geändert und eine PS4 Pro erfreut mich in der Freizeit mit Spielen wie Last for Us 1 & 2, Strange Life, Horizon Dawn, God of Wars, Until Dawn.

Am PC zocke ich Diablo 3, Skyrim 5, Vampire the Masquerade und dann demnächst Wasteland 3.
Freue mich auf Diablo 4. Notfalls wird dafür ein neuer Rechner angeschaft. Davon ausgehend, dass ich so viel Spaß an D4 haben werde, wie an D3 .... wirds dann ein Athlon Ryzen X5900 und NVIDIA RTX 3080 (16GB) .....
Auf die nächsten 10 Jahre.
 
HessenAyatollah schrieb:
GTX 295, das waren 2xGTX 285 Chips auf einer Karte
Das waren keine 285er, NV hat da eine eigene Karte kreiert, die GTX 275, die dann später auch seperat releast wurde.


estros schrieb:
[...]
15 Watt mehr und geringere Leistung. Das sehe ich da heraus, die Karte war damals uninteressant. Die hat man nicht gekauft, anders als die 5870 zB.
Moment mal, die HD 7970 wurde vor der GTX 680 releaset und sie war schneller als die GTX 580. Erst danach kam NV mit der 680er Karten (mit Mittelklasse Chip aka 104er welcher vorher auf den 60er Karten verbaut war), der natürlich viel weniger verbraucht als die High End Chips in den 7970ern.
Die 7970 GHz hat nach dem Release der 680 übrigens wieder gleichgezogen mit der Leistung und war in allem über 1080P sogar schneller, sie hat nur ein bisschen mehr verbraucht. Das NV da auch nicht zaubern konnte hat man dann später bei den GTX 780ern und der Titan gesehen, der Vollausbau war auch sehr durstig und hat viel verbraucht. Mit entsprechender Leistung zwar, aber vorher bei AMD war der Verbrauch ja ein "großes" Problem und ein scheinheiliger Grund für den Kauf der 680er anstatt der besseren 7970 GHz!? Aber die meisten Käufer sind halt trotzdem aufs Marketing hereingefallen.
Das wiederholt sich im Konkurrenzkampf der beiden Hersteller ja leider von Zeit zu Zeit. Das trotz mehr Leistung einer Seite lieber das "gute" Produkt gekauft wird. Die GTX 480 war ja auch ein Verkaufsschlager, trotz dem Gammelkühler, der Abwärme und dem immensen Stromverbrauch.

mkbftw schrieb:
[...]
vergleicht man das mit einer gtx 1080 bei gleicher auflösung, welche es ebenfalls für 500-600€ 2016 zu kaufen gab, ist das garnicht mal so günstig gewesen.
heutige karten kann man viel länger auf hohem niveau nutzen, gerade wenn man auf 1080p bleibt.
Allgemein kann man die Hardware der letzten 10 Jahre noch heute relativ gut benutzen. Das finde ich eine der besten Entwicklungen der letzten Jahre. 🙂
Früher war die 1-2 Jahre alte Hardware nach der gleichen Zeit quasi schon obsolet und musste ersetzt werden, wenn man ein aktuelles Spiel spielen wollte. Heute kann man mit angepassten Einstellungen fast jedes Spiel noch gut damit spielen, was aber auch ein Verdienst der Programmierer ist.

On Topic:
Ich hatte zwar die 580 nie, aber die GTX 570 mit doppelten Speicher von Point of View. Das war schon eine sehr gute Karte, sie hat mir 2 Jahre gute Dienste geleistet und wurde dann von einer HIS 7970 GHz in Rente geschickt. :D
 
Chakotey schrieb:
" Zu einem UVP von 479 Euro war die GeForce GTX 580 im November 2010 damit die schnellste Single-GPU-Grafikkarte am Markt "
Dafür hat man damals keine solche Karte bekommen, sie kosteten damals 599 € und mehr.
mkbftw schrieb:
an die ganzen leute, die hier vom damaligen preis von unter 500€ so fasziniert sind:
Zum dem entspricht das nicht der Realität. Die Karten bekam man erst länger nach dem Start günstiger.

Ich kann den Preis um die 500 € nicht bestätigen. Es war, seit es GPUs gibt, schon immer so, daß man die Karten in den 1-3 Monaten kaum für den ausgewiesenen Preis bekommen hatte, sie waren immer min. ~150-200 höher. Ich habe damals für meine 3 Karten 649 und 599 € bezahlt. Die einzigen Preise, die wirklich immer den genannten Preisen bei Tests und Ankündigungen stimmten, waren die von Nvidia selbst mit ihren Karten. Alle anderen, das sehen wir doch auch gerade jetzt, liegen höher, egal welcher Hersteller, und ebenso mindestens 100-200 €.
 
Vitec schrieb:
Spätestens mit DDR5 gehts im APU Berreich richtig ab.

Kann ich mir nur schwer vorstellen. Außer Intel schafft es schnelle APUs zu bauen. Aber die wollen ja auch in den dedizierten GPU Markt, ergo werden weder AMD noch Intel ein Interesse daran haben ihren Einsteiger-GPUs Konkurrenz zu machen.
 
Shoryuken94 schrieb:
Ist doch immer eine Milchmädchenrechnung. Damals waren im High End Bereich Multi GPU Systeme an der Tagesordnung. Das ist heute für Gamer hingegen kein Thema mehr. Ja die Preise sind angezogen, allerdings auch die Produktionskosten. 40nm Wafer waren halt deutlich günstiger, als heutige 7 / 8nm Wafer. Trotz teurer Wafer sind die Dies in den letzten Jahren ein gutes Stück größer geworden. Auch die PCBs heutiger Karten sind deutlich komplexer und teurer, alleine um den gestiegenen Signalanforderungen gerecht zu werden.

Natürlich verdient Nvidia / AMD mittlerweile an einer Karte deutlich mehr, als damals. Allerdings entsteht ein teil des Preises tatsächlich durch die teureren Karten in der Produktion.

Zum anderen muss man einfach auch mal sehen, dass Grafikkarten heute deutlich mehr als Spielzeuge sind. Damals waren Anwendungen neben dem Gaming eher ein Ausnahmebereich. In den letzten Jahren hat sich das deutlich geändert und die GPUs spielen auch in immer mehr anderen Bereichen eine Rolle. Die AI Leistung einer Gaming Nvidia Karte ist halt auch für Entwickler interessant, so dass die Karten nicht nur von Spielern gekauft werden. Schon die RTX 2080Ti ist auch gerne in Workstations gewandert.

Es kommen viele Faktoren zusammen. Die Produktion ist mittlerweile komplexer und teurer, die Karten sprechen einen breiteren Kundenkreis an und ja die Hersteller wollen wie alle börsennotierte Unternehmen wachsen.

Gleichzeitig sind High End Single GPU Karten heute eine ziemliche Nische. Damals war eine GTX 580 in manchen Spielen selbst in Full HD schon ziemlich am Limit. Vor 10 Jahren war Full HD schon Standard und heute ist es noch immer mit abstand die am weitesten verbreitet Auflösung. Nur ist heute eine High End Karte in der Auflösung ziemlich unnötig. Nicht zu verachten, dass die Karten heute meist deutlich länger halten und seltener geupgradet werden muss.

@Topic: Ich hatte damals die GTX 570 in der Twin Frozr III Edition von MSI. Echt eine super schöne Karte. Steht bis heute im Regal. Leider die erste Grafikkarte, die bei mir gestorben ist. Sie wurde dann durch die GTX 670 ersetzt. Habe aber gute Erinnerungen an die Karte. Lies sich auch schön übertakten.


mit der RTX 3000 und AMD RX 6000er Serie hängen die meisten Leute doch eh im CPU-Limit, eigentlich sind es fast immer Ryzenbestizer im CPU-Limit hängen bei WQHD und Full HD. Die meisten leugnen dass und wollen es nicht zugeben, ok gut es gibt Ausnahmen wie RDR2 das schlecht optimiert ist. Ich hab mir neue Arbeitsspeicher gegönnt um das letzte Quantum Leistung meines Ryzen auszupressen, es sind G-Skill DDR4-3600CL14 mit Samsung-B-Die, ich bin damit nun selten unter 100fps bei BF5 und allem voran die Map Operation Untergrund(Metro). Eine Grafikkarte sollte durchgehend eine Auslastung von 97-99% haben, schwankt die öfters mal bei 87-91% rum, ist ganz klar ein CPU-Limit das bei mir öfters eintritt.

Ich habe mir bei Warzone um die 150-180fps erhofft auf Low Settings@WQHD, der Ryzen packt das einfach nicht trotz sehr gutem Arbeitsspeicher, während ein i5-10900F mit den gleichen Arbeitsspeicher im Schnitt 180fps hat. Jetzt stellt sich doch die Frage weshalb ich je auf eine RTX 3080 bzw. RX 6800XT upgraden soll, wenn der Ryzen im Schnitt nur 130fps packt auf 1080p Low, dann werde ich mit einer RTX 3080 auch nicht mehr haben und wozu dann die potente GPU?!?!. Bei mir kommt kein Ryzen mehr ins Haus, auch die 5000er Serie bleibt mir gestohlen. Mag sein dass Ryzen mit der Anwendungsleistung nur so strotzt, aber trotzdem nur auf Augenhöhe mit der Intel Skylake(2015) Architektur sind beim Gaming. Ryzens größte Schwäche ist nach wie vor die hohe Latenz, die AMD mit hohem Cache und gesteigerte IPC kompensiert. Hätte Ryzen 5000 die gleiche Latenz wie Intel wäre AMD dem aktuellen Intel beim Zocken schon deutlich überlegen.

Da es nach wie vor nur wenig 4k Monitore gibt, bleibt es weiterhin bei WQHD, aber bitte zukünftig dauerhaft mindestens 150fps, und deshalb freu ich mich schon auf Rocketlake, denn dieser hat eine neue überarbeitete Architektur, PCIe 4.0, und packt mit Sicherheit wieder die 5ghz@allcore, der Stromverbrauch ist egal weil ich eh nur spiel und surfe. Wenn eine RTX 3080ti mit 20gb erscheinen wird, dann ist ja alles perfekt2. Ich kann den Hype um Ryzen 5000 nicht ganz verstehen, weil man jetzt erst auf Augenhöhe mit Intel ist beim zocken. Müsste ich jetzt sofort ein komplett neuen PC laufen wäre es ganz klar ein Ryzen 5000, allein schon wegen PCI 4.0 und dieser Prozessor sollte 5 Jahre halten und mit PCIe 3.0 könnte man in 3 Jahren evtl Nachteile haben...
 
Rein vom Vergleich der Daten: 480, 580, 5870 und 6870 - da sollten die AMD/ATI Karten ja eigentlich deutlich gewinnen. oder zumindest gleichauf liegen.
 
Siehe meine Signatur! GTX 570 ist meine Übergangskarte (weil ich meine GTX 580 damals verkauft hab für ein Upgrade) bis später heute meine 3080 ankommt :D

Heute wird sie in den Altersruhestand geschickt nach dieser letzten Strapaze.
 
@BAR86
das ist so eine sache - amd/ati hatte von der reinen rohleistung immer recht potente karten nur feilte man bei nvidia auch recht stark an der software und hatte zumeist einen guten draht zu entwicklern. das führte wiederum bei amd/ati zu einem "fine wine"-image da die karten besser alterten.
 
Da kommen schöne Erinnerungen hoch. Habe damals mit 15 zu Weihnachten meinen ersten Gaming PC mit direkt zwei Gainward GTX580 Phantom und einem 2600k bekommen. War schon ein extrem teures Geschenk, aber immerhin hat man sich die Heizkosten für mein Zimmer gespart :D

"Damals" war alles noch schöner :D
 
nudelaug schrieb:
nur feilte man bei nvidia auch recht stark an der software

Ich kann mich an eine Aussage von Nvidia erinnern, dass deren größtes und wichtigstes Know How nicht in der GPU-Hardware liegt, sondern in der Software. Damit dürften nicht nur die Treiber gemeint sein, sondern vor allem Entwicklungstools, vorgefertiget Bibliotheken und Co., mit denen sie dafür sorgen, dass ihre Karten von den Spiele-Entwicklern möglichst optimal genutzt werden.
AMD scheint auf die Software lange Zeit nicht so einen Fokus gelegt zu haben, bzw. fehlten wohl meist auch einfach die Ressourcen dafür.
 
  • Gefällt mir
Reaktionen: nudelaug
Is. Or 2 Jahren hatte ich die 670 noch drin und ehrlich gesagt nie ein Problem.... gut, war halt auch nur WoW, Anno 1404 und sowas :D. Allerdings auch 1440 ^^.
 
ZeT schrieb:
Kann ich mir nur schwer vorstellen. Außer Intel schafft es schnelle APUs zu bauen. Aber die wollen ja auch in den dedizierten GPU Markt, ergo werden weder AMD noch Intel ein Interesse daran haben ihren Einsteiger-GPUs Konkurrenz zu machen.

Konkurrenz sehe ich da keine.
Derzeit haben wir nur die 5500XT bei 200€ die auf jeden Fall noch immer schneller sein sollte und mit der RX 6500 oder wie auch immer steht schon der Nachfolger in den Startlöchern.
Von daher denke ich durchaus, dass man in Zukunft die kleinen Einstiegs gpus mit einer guten APUs wird abdecken können.


Es war von mir vielleicht etwas reisserisch formuliert , den die APU`s werden dann nicht 200% zulegen. Aber mit 2 Tflops Rohleistung eines 3400G sind sie derzeit schon ganz gut dabei und mit DDR5 und doppelter+ Bandbreite, sowie RDN2 und einen kleinen IF Cache, ist da sicher noch eine Steigerung von 50% + möglich.
Technisch sollte ja auch bei der APU die Bandbreite vorerst wichtiger sein auf die igpu bezogen wie die Timings.
Fraglich ist eher, ob sich ein IF Cache preislich im Einsteigsberreich überhaupt auszahlt.
Vielleicht reicht es aber auch schon, wenn das AMD DLSS auch auf den kleinen APUs kommt und da wieder 30% rauszuholen sind. Dort dürfte 1080p noch ne weile bleiben und wenn das mit 720p berechnet werden kann oder sogar 540p dann würde das auch auf heutigen Apus schon richtig flüssiges Gaming (60fps) mit medium/high ermöglichen.
 
@Vitec

die Frage ist nur ob AMD und Intel das wollen. Ich 4 Wochen mit dem 2200G überbrückt und FF 14 lief in 1366x768 erstaunlich gut. Selbst in Star Citizen konnte ich mich durchs FPS Mining ruckeln.
 
Replay86 schrieb:
Was ist da nur schiefgelaufen die letzten 10 Jahre?

Zum einen fehlte für Nvidia im High End oft echte Konkurrenz. Das haben sie wohl ausgenutzt um die Preise zu erhöhen.
(Das billigste Nvidia-High End war glaube ich seinerzeit die GTX285. Ein riesiger Big Chip mit 512Bit-SI, der trotzdem für zeitweise nur ca. 270€ zu haben war. Halt weil AMD/ATI zu der Zeit die klar besseren High End-Karten hatte.)

Der Hauptgrund liegt aber wahrscheinlich eher darin, dass die GPUs und auch das Drumherum wie Speicher, Stromversorgung und Kühler immer aufwändiger geworden sind. Das treibt nicht nur die Herstellungskosten hoch, sondern vor allem den Entwicklungsaufwand, der ja auch mitbezahlt werden muss.
Außerdem sorgt das für längere Pausen zwischen den Generationen. Früher war es ja zeitweise so, dass nicht mal ein ganzes Jahr dazwischen lag.
 
Das war die Zeit in der ich angefangen habe meine Systeme selber zu bauen.
Ich hatte eine GTX 570 von msi mit einem i5-2500k (lief Jahrelange mit einem prolimatech auf 4,5Ghz).
1605004377685.png


Ist echt schön wieder daran zurückzudenken. Ich habe für die Karte ca. 385€ bezahlt. Und damit war ich schon ganz vorne mit dabei.

Ich meine mich auch zu erinnern das SLI zu der Gen relativ gut funktioniert hat. Es gab mehrere Benchmarks die okay skaliert haben. Ich habe sogar mit dem Gedanken gespielt auf 2Way GTX 570 zu upgraden.

Hier ein Quad SLI 580er Video von der8auer


Danke für diesen tollen Artikel und die Erinnerungen. :D:)
 
Hab ich damals von meinem 1. Ausbildungslohn gekauft und hatte kein Cent danach mehr, aber da man noch zu der Zeit bei Mama gewohnt hat, ging das. :D
War mit meiner ATI 5870 die nur zum Übergang zur 580 war, einfach nicht so richtig zufrieden und ist bis heute die letzte AMD Karte gewesen.
 
  • Gefällt mir
Reaktionen: GT200b
Hatte damals meinen ersten PC mit einem 2500K zusammgebaut, der bis vor 2 Jahren noch im Einsatz war und bis zuletzt mit 4,6 GHz im Vollmarsch unterwegs war.
Meine erste Graka in diesem Ausbau war eine GTX 560 TI TGT (Point of View). Das Ding war in Sachen Leistung ein Biest aber die Lautstärke glich einem Düsenjet. Wenn man was gezockt hat, hieß es von den Eltern ein Stockwerk tiefer, dass das Ding so laut wie ein Staubsauger wäre und man die Tür zu machen soll. Lang ists her :D.
Mittlerweile hatte ich jetzt eine GTX 970 Phantom von Gainward mit dem schickem Kühlerdesign und aktuell ist es eine GTX 1070 TI Armor von MSI die Ihren Job erfüllt.
Überlege jetzt mit einem Upgrade auf eine 6800 XT, bzw. mit einem Vollupgrade im Januar mit hoffentlich guten Verfügbarkeiten.
 
Interessant auch, das neben der GTX 285 2GB von Asus und früherer 8800gts mit 2 Speicherausbauen hier NV auch bei der 570/580 den doppelten Speicher zugelassen hat, da AMD gleich 2Gb hatte.
Ebenso bei der 680/770.
Verwunderlich, dass sie dann bei der 970 und 980 so konsequent waren und hier nicht mehr nachgezogen sind mit AMD beim VRAM.
Und aktuell dassselbe Spiel von neuem .
 
Zurück
Oben