News Nvidia GA102 statt GA104: Auch Colorful spendiert der RTX 3070 Ti den größeren Chip

ich finde Ampere grundsätzlich nicht alt oder schlecht aber ich finde es im Vergleich zu den 6000er Karten von AMD und ADA Lovelace zu ineffizient im Stromverbrauch.

Ich hätte nichts gegen ein Refresh, wenn der in 5nm (4nm wäre zu teuer) statt 8nm kommen würde. So allerdings ist mir völlig Wurscht, ob es jetzt den großen Chip gibt oder Peng.
 
Vitche schrieb:
@Marcel55 Da vergleichst du Ada Lovelace mit Ampere, TSMC mit Samsung und 8 mm mit 4 nm … ^^
Oh, du hast recht. Da ich wohl nicht damit gerechnet hatte, dass jetzt noch neue Ampere-Karten auf den Markt kommen, bin ich irgendwie automatisch davon ausgegangen dass es um die kommende 4070ti ging :lol:
 
  • Gefällt mir
Reaktionen: Clany und Vitche
Ich hab's in der Einleitung extra deutlich gemacht ;)
 
Doctor Strange schrieb:
Bring diese olle Lederjacke nicht auch noch auf dumme Ideen... :freak:
Wieso, ich spiel dieser Tage eh selten etwas das GPU Leistung braucht, aber für die Weihnachtsferien wäre es ja nett ne 4090 zu haben. ;-)
 
Nein....auch bei Nvidia war das Reaktiviern stillgelegter Einheiten möglich, z.B. 6800GS AGP
 
  • Gefällt mir
Reaktionen: Coeckchen
Und EVGA sschaut zu wie die Anderen Kohle verdienen. Ich verstehs immer noch nicht
 
Nvidia wird die GPU Chips nicht los, also müssen selbst hochpreisige Chips zum Lasercut um ja nicht den Preis zu drücken.

Lieber 5 120$ Chips shorten, und dafür 10 Grafikkarten verkaufen:
5x um 700€ + 5x um 1000€

Als allgemein mit dem Preis auf 700€ runter zu gehen.


Nvidia klammert sich auf das Preisspektrum was es mit dem Mining gegeben hatte und am Ende wird die ganze Blase platzen. Es gibt genug Fans diverser Marken etc. nur entspricht die Preisgestalltung in keinsterweise die Relaität wieder, es gibt soviele "Arme" Staaten und doch nur sowenig reiche wie Mittel und Nordamerika, Nordeuropa und manche Staaten aus Südasien. Mehr als 50% der Weltbevölkerung sind Nvidias preise einfach egal, weil dort hat man anderes zu finanzieren mit teils mikrigen Gehältern.


Wobei man auch sagen muss die Deutschen und US-Amerikanischen Fanboys sind schlimmer als sonst wo auf der Welt, die wenigsten kaufen einfach so nur um ihre Gier bzw. Sucht des Narzistischen bedienen zu können.
Sind normale Arbeiter aber bei der Grafikkarte können sie zeigen wer sie sind, am besten noch als Signatur jetzt sinds die erhabene Masterrace.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: aid0nex, Michael vdMaas, Helge01 und 2 andere
Ich habe den Eindruck Du gönnst den Normalverdienern nicht, dass sie sich von ihrem hart erspartem auch mal was teureres leisten und darauf auch stolz sind.
Ich freue mich für jeden mit, völlig unabhängig was das Spielzeug gekostet hat.
 
  • Gefällt mir
Reaktionen: Paladin301
Eine Grafikkarte, welche den Absurditäten im Bereich der GPUs die Krone aufsetzt. Es ist einfach ein Trauerspiel.
 
  • Gefällt mir
Reaktionen: Hawk1980, Solavidos, Michael vdMaas und 9 andere
@SVΞN

Ein exzellentes Beispiel der Ressourcenvernichtung, bei der Nvidia ganz sicher keine Verluste macht. Nur eben die Menschheit insgesamt, in der die heutigen Straßenkleben Menschen den zivilisatorischen Verfall ausbaden dürfen. Zwar hört sich Klimaflüchtling sicherlich nicht so grausam an wie Asyltourismus, oder Sozialtourismus, aber die Auswirkungen werden Demokratien mit dem Anspruch auf Freiheit und Menschenrechte sprengen.

Der Kapitalismus braucht eine wachsende Wirtschaft um existieren zu können. Eine wachsende Wirtschaft braucht aber keinen Kapitalismus. Doch mit dem Fakt der Klimakatastrophe brauchen wir weder einen Kapitalismus, noch eine wachsende Wirtschaft, sondern eine Vollbremsung in ein System der Freizeit. Bis es dann soweit ist, bin ich hoffentlich schon unter der Erde. Denn die Willkür oberhalb der Erde möchte ich dann doch nicht erleben müssen.
 
  • Gefällt mir
Reaktionen: II n II d II
Erinnert mich an meine alte XFX 7870 mit Tahiti-Chip.
Der Original-Kühler konnte die Abwärme kaum bändigen, den Stromverbrauch hatte ich nicht kontrolliert und das war wahrscheinlich auch besser für meinen Schlaf ;)
 
Am Ende eines Lebenszyklus ist die Ausbeute doch in der Regel besser als am Anfang. Deshalb glaube ich nicht, dass es sich bei den ganzen Chips um teildeffekte handelt.
Ich glaube vielmehr, dass man in der Preisklasse eine 3070ti einfach mehr Karten absetzen kann. Wenn dann noch große Chips übrig sind hat man zwei Möglichkeiten: entweder man kürzt sie ein und verkauft sie auf den billigeren Karten oder man senkt den Preis der teureren, z. B. 3090. Bei letzterer Variante würde man jedoch das Gesamtziel, die Preise langfristig deutlich anzuheben aushebeln.
 
  • Gefällt mir
Reaktionen: Zik0815
Ich frage mich, wer eigentlich die RTX 3070 Ti kauft ? Die günstigste Karte kostet aktuell 649€. Preis pro FPS ist mangelhaft gegenüber vieler anderen Karten. Die RX 6800 hat 16GB RAM, verbraucht weniger Strom und ist 100€ günstiger. Nur beim RT lässt sie zu wünschen übrig, aber das muss jeder für sich entscheiden....
 
  • Gefällt mir
Reaktionen: JackTheRippchen, konkretor, xXDariusXx und 2 andere
Steini1990 schrieb:
Sowas uninteressantes. Schmeißen jetzt noch ineffizientere Versionen bestehender Karten auf den Markt.
Wie kommt man darauf, dass die Karte dadurch ineffizieter wird, als mit dem kleineren Chip. Bei AMD war letztlich genau das der Vorteil der 6800 ggü. der 6700 XT: Bei fast identischer Leistungsaufnahme ist die 6800 in WQHD im CB-Parcours 20% schneller gewesen und kam dadurch auf ein um 10% besseres Perf/Watt-Verhältnis, als der Vollausbau des kleineren Chips.
In 4k waren es 25% mehr Leistung (15% besseres Perf/Watt-Verhältnis)

Dunno. Kann sich bei NV natürlich anders verhalten. Aber ich hätte jetzt erstmal die Tendenz, dass ein teildeaktivierter großer Chip erstmal weniger stromhungrig ist als ein vollaktivierter kleiner Chip.

Zik0815 schrieb:
Die RX 6800 hat 16GB RAM, verbraucht weniger Strom und ist 100€ günstiger.
Zum einen, wie du erwähnst, das Thema Raytracing. Das ist bei AMD im direkten Vergleich schon mangelhaft. Wenn man es unbedingt haben möchte. Aber eben auch einfach die Tatsache: 80% Marktanteil hat NV nicht ohne Grund. Das der Marktanteil trotz der durchaus guten Generationen von AMD (ich finde RDNA und RDNA2 fast (6400/6500 XT hust) komplett rund). Gerade auch in Sachen Effizienz.
Aber NV hat einen extrem hohen Kredit und eine hohe Zahl von Stammkunden, die AMD nicht einmal mit der Kneifzange anfassen würden.
 
kachiri schrieb:
Wie kommt man darauf, dass die Karte dadurch ineffizieter wird, als mit dem kleineren Chip. Bei AMD war letztlich genau das der Vorteil der 6800 ggü. der 6700 XT: Bei fast identischer Leistungsaufnahme ist die 6800 in WQHD im CB-Parcours 20% schneller gewesen und kam dadurch auf ein um 10% besseres Perf/Watt-Verhältnis, als der Vollausbau des kleineren Chips.
In 4k waren es 25% mehr Leistung (15% besseres Perf/Watt-Verhältnis)

Dunno. Kann sich bei NV natürlich anders verhalten. Aber ich hätte jetzt erstmal die Tendenz, dass ein teildeaktivierter großer Chip erstmal weniger stromhungrig ist als ein vollaktivierter kleiner Chip.
Vorsicht, du wirfst da gerade zwei Sachen zusammen:
6800 großer Chip - 3840 kerne, niedriger takt
6700XT kleiner Chip - 2560 kerne, hoher takt

3070ti kleiner Chip - 6144 kerne
3070ti großer Chip - 6144 kerne

generell gilt:
Viele kerne mit niedrigem takt sind effizienter als wenige kerne mit hohem Takt.
Da die beiden 3070ti varianten aber gleich viele kerne und gleichen Takt haben, unterscheiden sie sich nur in der chip größe. Und da ist ein großer chip mit vielen "kaputten" kernen und anderem overhead (spannungsversorgung, memory bus, etc...) eben ineffizienter als ein kleiner (fast) vollaktivierter Chip.
 
  • Gefällt mir
Reaktionen: JackTheRippchen, Steini1990, Shy Bell und 3 andere
Hallo,

ich halte nix davon halbkaputte GPU Prozessoren einzubauen. Gibt in der Regel nur Ärger.

Sollen die mal behalten. Ebenfalls kein Bedarf.

LG
 
  • Gefällt mir
Reaktionen: Shy Bell
Zurück
Oben