Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News nVidia-Karten mit 512 MB kommen
- Ersteller Jan
- Erstellt am
- Zur News: nVidia-Karten mit 512 MB kommen
Odium
Captain
- Registriert
- Okt. 2003
- Beiträge
- 3.643
Ich versteh nicht, dass einige sich darüber aufregen, dass die Mehrheit sich hier darüber aufregt, dass eine nVidia Karte mit 512 MB RAM rauskommt
Das liegt auf der Hand, und wird seit Jahren auch so konsequent von verfolgt: Zuerst von Matrox, später von nvidia und selbst ATI muss bald nachziehen. Denn der Preis lässt sich einerseits aus werbetechnischen Gründen gestalten (schnellste GraKa am Markt = Hersteller kann Spitzenpreis verlangen). Und ich bin mir sicher, dass fast jeder PC-Nutzer glaubt, dass mehr RAM in seiner GraKa ihm persönlich auch mehr bringt.
Zum anderen steigen die Herstellungskosten, und zwar um einen gar nicht zu vernachlässigen Prozentsatz. Die Kosten werden gekoppelt mit der Werbung gleich an uns weitergeben, der Kunde kauft und am Ende muss die Konkurrenz nachziehen, wenn sie keine chiptechnische bessere Alternative liefern kann.
Ich glaube die wenigsten hier sind bereit, überhöhte Preise für Hardware zu bezahlen, weil sie einen billigen Marketingtrick mitfinanzieren müssen.
Das liegt auf der Hand, und wird seit Jahren auch so konsequent von verfolgt: Zuerst von Matrox, später von nvidia und selbst ATI muss bald nachziehen. Denn der Preis lässt sich einerseits aus werbetechnischen Gründen gestalten (schnellste GraKa am Markt = Hersteller kann Spitzenpreis verlangen). Und ich bin mir sicher, dass fast jeder PC-Nutzer glaubt, dass mehr RAM in seiner GraKa ihm persönlich auch mehr bringt.
Zum anderen steigen die Herstellungskosten, und zwar um einen gar nicht zu vernachlässigen Prozentsatz. Die Kosten werden gekoppelt mit der Werbung gleich an uns weitergeben, der Kunde kauft und am Ende muss die Konkurrenz nachziehen, wenn sie keine chiptechnische bessere Alternative liefern kann.
Ich glaube die wenigsten hier sind bereit, überhöhte Preise für Hardware zu bezahlen, weil sie einen billigen Marketingtrick mitfinanzieren müssen.
BOZ_er
Lt. Commander
- Registriert
- Apr. 2003
- Beiträge
- 1.212
512 MB sind schon hammer.... natürlich abgesehen davon, daß GDDR3 und Nachfolger nicht gerade billig sind, lohnt sich diese Entwicklung auf jeden Fall.
512er Texturen sind ja seit UT2k3 standard und 1024er wurden auch schon hier und da verwendet aber 512MB Ram bringt natürlich Platz für mehr.
Bin sehr gespannt auf diese Grakageneration - auch wenn ich denke, daß diese Graka Generation noch nen bischen auf sich warten lassen wird. Zum aktuellen GDDR3 Preis kann man sowas nicht anbieten.
Auf jeden Fall ein Grund mehr die zukünftigen 6800er (6600er) Modelle (oder was dann auch immer daraus entstehen mag) zu beobachten.
ATI muss eh erstmal was gegen die 6800 er machen - solange man da fröhlich drann rum modden kann (Pixelpipes etc), sehe ich kein Hindernis wieder von ATI auf NVIdia zu wechseln.
Wenn NVidia die 512MB als erste rausbringt, dann hat NVidia erstmal nen Vorteil - mal sehen was jetzt nach NV40 kommt.
Das vernünftige CAD Karten garnicht genug Ram haben können is klar. Da kann man auch 512MB leicht aufbrauchen.
512er Texturen sind ja seit UT2k3 standard und 1024er wurden auch schon hier und da verwendet aber 512MB Ram bringt natürlich Platz für mehr.
Bin sehr gespannt auf diese Grakageneration - auch wenn ich denke, daß diese Graka Generation noch nen bischen auf sich warten lassen wird. Zum aktuellen GDDR3 Preis kann man sowas nicht anbieten.
Auf jeden Fall ein Grund mehr die zukünftigen 6800er (6600er) Modelle (oder was dann auch immer daraus entstehen mag) zu beobachten.
ATI muss eh erstmal was gegen die 6800 er machen - solange man da fröhlich drann rum modden kann (Pixelpipes etc), sehe ich kein Hindernis wieder von ATI auf NVIdia zu wechseln.
Wenn NVidia die 512MB als erste rausbringt, dann hat NVidia erstmal nen Vorteil - mal sehen was jetzt nach NV40 kommt.
Das vernünftige CAD Karten garnicht genug Ram haben können is klar. Da kann man auch 512MB leicht aufbrauchen.
GDC
Lieutenant
- Registriert
- Apr. 2001
- Beiträge
- 656
Ich lach mich ja kaputt, wenn es dann wieder Karten mit 12 oder weniger Pipelines gibt, die dank ihrer 512 MB Speicher zum Preis einer 6800GT verkauft werden. Es gibt noch immer Leute die sich eine LT (ATi) oder XT (nVidia) mit 256 statt 128 MB RAM kaufen, weil die vergleichbare Karte ohne LT oder XT ja weniger RAM hat und somit ja "schlechter" sein muss.
STEEL
Commander
- Registriert
- Okt. 2003
- Beiträge
- 2.590
BOZ_er schrieb:ATI muss eh erstmal was gegen die 6800 er machen - solange man da fröhlich drann rum modden kann (Pixelpipes etc), sehe ich kein Hindernis wieder von ATI auf NVIdia zu wechseln.
.
Wieso sollte ATI etwas gegen die 6800 machen? Was das Preisleistungssegment in Form der 6800GT betrifft, hast du sicher recht. Da fehlt ATI ganz klar der Chip. Selbst die X800XT nonPE ist dahingegen zwar gleich schnell, teilweise sogar schneller, aber eindeutig zu teuer. Was aber den High End-Bereich angeht ist wohl klar ATI der Spitzenreiter und schlägt die 6800ultra in manchen Games sogar deutlich, zumindest mit AA und AF. Und der neue X850-Chip setzt da noch eins obendrauf.
Was aber den Speicher angeht. Ganz klar: Brauch noch kein Schwein! Und ob 512MB bei 6800 Karten wirklich sinnvoll sind wird sich noch zeigen müssen. Wird wohl erst mit der neuen Generation so richtigen Nutzen bringen.
Aber so ist nun mal die Entwicklung. Und im PC-Bereich geht es nun leider immer nur um Größer, Schneller, Teurer!
Blaubierhund
Lt. Junior Grade
- Registriert
- Jan. 2004
- Beiträge
- 355
na wenn das so weiter geht, haben die gpu´s bald mehr speicher zur verfügung als die cpu´s....
Tiu
Rear Admiral
- Registriert
- Sep. 2001
- Beiträge
- 5.560
Was vielleicht gar nicht mal so verkehrt wäre.Blaubierhund schrieb:na wenn das so weiter geht, haben die gpu´s bald mehr speicher zur verfügung als die cpu´s....
Wenn die Grafikkarten GPU´s noch besser wären, könnten viele Teile die heute in der CPU berechnet werden entfallen. Somit könnte sich die CPU ganz auf die Physikengine konzentrieren und wir brauchten keine 3GHz+ CPU´s mehr für Spiele.
DiamondDog
Captain
- Registriert
- März 2004
- Beiträge
- 3.648
anstatt 1 Graka mit 512MB GDR3 1,6ns auszustatten, sollten die lieber 2 mit 256MB rausbringen, damiut mehr leute davon wa haben und nicht nur die mit nem Geldsack ohne Boden gefüllt mit 500€-Scheinen
Tea&Fruit
Lieutenant
- Registriert
- Juni 2004
- Beiträge
- 589
*gg*-Master schrieb:@15
dann kauf dir doch wieder eine ati. *gg*
Heul nich rum. Ich hasse diese 13-jährigen Kinder die hier rumgeistern und sich persönlich angegriffen fühlen, nur weil man was gegen Nvidia oder ihren Lieblingshersteller sagt. Ganz schön spackig sowas.
EDIT: Karmagepiense entfernt!
EDIT: Karmagepiense erneut entfernt!
Zuletzt bearbeitet von einem Moderator:
blubberbrause
Lt. Commander
- Registriert
- Apr. 2003
- Beiträge
- 2.036
@48
Es ist wie mit allem im Leben, entweder man kann es sich leisten oder man lässt es bleiben.
Es ist wie mit allem im Leben, entweder man kann es sich leisten oder man lässt es bleiben.
Mich wundert immer wieder, wie hier teilweise rumgeprotzt wird.
Wenn ich da weiter oben lese, dass der Grafikkarte mit 256 MB bei 1600x1200 mit 4xAA usw. der RAM ausgeht, dann stimmt da doch was nicht.
Wer bitte schön spielt mit so einer Auflösung ?
Und wer bitte schön benötigt bei so einer Auflösung noch 4xAA ???
Da gibt es doch eh keine Treppenbildung mehr *grübel*
Oder habt ihr alle cyberverstärkte Augen, dass ihr solche Details noch wahrnehmt oder 25" Bildschirme, wo man mit so ner Auflösung zockt ?
Fragen über Fragen, die ich mir jedesmal bei solchen Kommentaren stelle...
Wenn ich da weiter oben lese, dass der Grafikkarte mit 256 MB bei 1600x1200 mit 4xAA usw. der RAM ausgeht, dann stimmt da doch was nicht.
Wer bitte schön spielt mit so einer Auflösung ?
Und wer bitte schön benötigt bei so einer Auflösung noch 4xAA ???
Da gibt es doch eh keine Treppenbildung mehr *grübel*
Oder habt ihr alle cyberverstärkte Augen, dass ihr solche Details noch wahrnehmt oder 25" Bildschirme, wo man mit so ner Auflösung zockt ?
Fragen über Fragen, die ich mir jedesmal bei solchen Kommentaren stelle...
Tiga1978
Lt. Junior Grade
- Registriert
- Dez. 2004
- Beiträge
- 260
Hilfe wir sind verloren. Die Grafikkartenhersteller haben uns in Ihrer Hand. Vor einem halben Jahr war die Weld noch in Ordnung eine ATI 9800 Pro noch schnell genug und der Besitzer einer 5950 Ultra noch glücklich. Kann mann ja jetzt alles in die Tonne Kloppen. Also ab in den laden wie damals als die Leute sich für Taktraten von CPU's interessierten (ambesten 3 GHz und dann 128 MB Arbeitsspeicher) und eine 6800Ultra mit 512MB RAM für dann Schlappe 700,- € kaufen, alles andere ist ja nicht mehr zum spielen geeignet. Und dann kann man sich bei Doom 3 in die Ecke stellen und bewundern, wie Toll all die schönen Filter sind. Aber Voricht nicht bewegen sonst sieht man vielleicht den Unterschied zwischen Ultra High und High nicht mehr. Als nächstes kommt dann der TFT mit 2048*1536 Pixel für 2000,- € damit Ihr die Karte auch mal richtig ausreitzen könnt. Und was ist dann ? Ein halbes Jahr später stellt Ihr dann fest, das es schon wieder etwas neues gibt und daß das einsteigermodell nun 300,-€ kostet und mehr als eure alte Karte kann.
Mein Fazit auch wenn es sich nicht so an hört kauft ruhig immer das neuste und gibt ordentlich Geld aus dann geht die Entwicklung weiterhin so schnell weiter und dann ist in einem Jahr eine 6800Ultra mit 512MB schon als Einsteigermodell für 250,- zu haben, weil nun mal unter 2GB dann garnichts mehr geht. Dann kauf ich mir auch so ein Ding. Ob dann Spiele wie Farcry und Doom3 die Aufgrund ihres Blöden Gameplays nicht zu meinen Lieblingsspielen zählen mir mit AAx64 besser gefallen sei mal dahin gestellt.
Mein Fazit auch wenn es sich nicht so an hört kauft ruhig immer das neuste und gibt ordentlich Geld aus dann geht die Entwicklung weiterhin so schnell weiter und dann ist in einem Jahr eine 6800Ultra mit 512MB schon als Einsteigermodell für 250,- zu haben, weil nun mal unter 2GB dann garnichts mehr geht. Dann kauf ich mir auch so ein Ding. Ob dann Spiele wie Farcry und Doom3 die Aufgrund ihres Blöden Gameplays nicht zu meinen Lieblingsspielen zählen mir mit AAx64 besser gefallen sei mal dahin gestellt.
reddog320
Lt. Junior Grade
- Registriert
- Aug. 2004
- Beiträge
- 354
512MB finde ich auch schon erstaunlich. Komme mir auch langsam vor, wie bei einer Auto-Show, wo die PS-Protzerei losgeht Allerdings geb ich euch recht....keiner zwingt uns zu dem Kauf, außer die HErsteller selbst villeicht Schaut euch doch mal um....ich brauche wohl nicht aufzählen, wieviel Leute extra neuen Krämpel gekauft haben, damit HL² funzt! Und zocken wollen wir doch am Ende alle
Watt habt ihr denn alle ? Ist doch ganz normaler Fortschritt und sogar meine Oma hätte vorraussehen können, das nach 256MB eben 512 kommt.
Grafikkarten waren übrigens schon immer so teuer. Guckt euch mal in den alten Archiven einiger IT-Zeitschriften um, dann stellt ihr fest das die Karten sogar billiger geworden sind
Grafikkarten waren übrigens schon immer so teuer. Guckt euch mal in den alten Archiven einiger IT-Zeitschriften um, dann stellt ihr fest das die Karten sogar billiger geworden sind
Sebastian
Vice Admiral
- Registriert
- Apr. 2004
- Beiträge
- 6.273
Die ganze Sache ist auch insofern interessant, als dass es die 6600GT nun doch auch mit 256 MB geben wird. Bislang fehlte Ihr dazu die "Berechtigung", so hieß es, da die 6800er alle samt auch nur über 256 MB verfügten und die 6600GT mit genauso viel Speicher zu nah an deren Leistung herangekommen wäre.
Aber mit 256 MB wäre die 6600GT die perfekte Wachablösung für meine Ti4200 128 MB.
Aber mit 256 MB wäre die 6600GT die perfekte Wachablösung für meine Ti4200 128 MB.
I-T
Ensign
- Registriert
- Jan. 2004
- Beiträge
- 202
Alle Leute die der Meinung sind "512Mb Karten brauchste ja nicht zu kaufen!" vergessen etwas entscheidenes.
Sobald es solche Karten gibt,fangen Programmierer an mit solchen Karten zu entwickeln,denn die haben welche zu Verfügung schon lange bevor man die kaufen kann.
Und was passiert? Der Programmierer sagt sich "Scheiß auf eine gute Texturkomprimierung,ich hab ja satte 512 MB Texturspeicher zum verbraten und die anderen die das nicht haben müssen eben mit Abstrichen leben!".
Also müssen alle die keine 512 MB Karten haben Abstriche hinnehmen,die teilweise dann unzumutbar werden.
Oder sich eine neue Karte kaufen,die eigentlich unnötig wäre,wenn die vorhandenen mal richtig ausgenützt werden würden.
Und genauso ist es bei CPUs,Ram,PCI-E usw.
Wir bestimmen nicht was wir brauchen,die Industrie bestimmt was wir bekommen.
Bleiben uns 2 Möglichkeiten:
Den Trend zu immer kürzeren und teureren Intervallen mitzumachen oder mit dem Spielen am Rechner aufzuhören,denn für fast keine anderen Anwendungen bracht man derartige Anforderungen.
Außer im Profibereich und dort spielt Geld eigentlich keine Rolle.Eine 512MB CAD-Karte wird einfach steuerlich abgesetzt und langsam abgeschrieben.
Das das "Problem" (für die Hersteller ist es ja eigentlich kein Problem) den großen im Kartensegment bekannt ist,zeigte die geplante Einschränkung der Entwicklungsintervalle....die wohl aus Gewinngründen nicht zustande gekommen ist.
Die Freaks kaufen sowieso für teures Geld und den anderen zwingt man die Karten schon auf.
Sobald es solche Karten gibt,fangen Programmierer an mit solchen Karten zu entwickeln,denn die haben welche zu Verfügung schon lange bevor man die kaufen kann.
Und was passiert? Der Programmierer sagt sich "Scheiß auf eine gute Texturkomprimierung,ich hab ja satte 512 MB Texturspeicher zum verbraten und die anderen die das nicht haben müssen eben mit Abstrichen leben!".
Also müssen alle die keine 512 MB Karten haben Abstriche hinnehmen,die teilweise dann unzumutbar werden.
Oder sich eine neue Karte kaufen,die eigentlich unnötig wäre,wenn die vorhandenen mal richtig ausgenützt werden würden.
Und genauso ist es bei CPUs,Ram,PCI-E usw.
Wir bestimmen nicht was wir brauchen,die Industrie bestimmt was wir bekommen.
Bleiben uns 2 Möglichkeiten:
Den Trend zu immer kürzeren und teureren Intervallen mitzumachen oder mit dem Spielen am Rechner aufzuhören,denn für fast keine anderen Anwendungen bracht man derartige Anforderungen.
Außer im Profibereich und dort spielt Geld eigentlich keine Rolle.Eine 512MB CAD-Karte wird einfach steuerlich abgesetzt und langsam abgeschrieben.
Das das "Problem" (für die Hersteller ist es ja eigentlich kein Problem) den großen im Kartensegment bekannt ist,zeigte die geplante Einschränkung der Entwicklungsintervalle....die wohl aus Gewinngründen nicht zustande gekommen ist.
Die Freaks kaufen sowieso für teures Geld und den anderen zwingt man die Karten schon auf.
DeathAngel03
Commodore
- Registriert
- Sep. 2004
- Beiträge
- 4.286
Ihr müsst das alle ganz locker sehn
Wo waren wir vor 3 jahren ???? bei 500Mhz rechern und 16MB Garfikkarten (heute Museumstück)...die Entwicklung geht eben weiter...sicher werden wir bald Grafikkarten mit 1GB 2GB und mehr ahben...genauso wie wir irgendwann 10Ghz Rechner haben werden...seit froh, viel schlimemr wäre wenn die entwicklung stehen bleiben würde ...
Wo waren wir vor 3 jahren ???? bei 500Mhz rechern und 16MB Garfikkarten (heute Museumstück)...die Entwicklung geht eben weiter...sicher werden wir bald Grafikkarten mit 1GB 2GB und mehr ahben...genauso wie wir irgendwann 10Ghz Rechner haben werden...seit froh, viel schlimemr wäre wenn die entwicklung stehen bleiben würde ...
Ähnliche Themen
- Antworten
- 6
- Aufrufe
- 1.258
- Antworten
- 20
- Aufrufe
- 2.198
- Antworten
- 8
- Aufrufe
- 1.720