News GeForce-RTX-3000-Serie: Custom Designs steigen zum Teil deutlich im Preis

CrustiCroc schrieb:
Und komm bitte nicht mit dem miesen HZD Port, der ist einfach nur besch..... gecodet.

Dann halt Ark, haha. Genauso bescheiden programmiert was aber faktisch völlig egal ist. Denn es gibt dieses Spiel nunmal so und wird auch von vielen gespielt. Ark ist z.b. das Spiel was ich am meisten Spiele. Da sind die 11GB meiner 1080 Ti Gold Wert. deswegen mache ich kein "downgrade" auf die RTX 3080 10GB..
 
  • Gefällt mir
Reaktionen: TorgardGraufell und Mcr-King
CrustiCroc schrieb:
Wie so oft beschrieben, ist das falsch ! Das Spiel "frisst" keine 7,5 GB. Sondern belegt den verfügbaren Vram, weil er "da ist". Wenn du das gleiche Spiel mit ner 2080ti startest "frisst" das Spiel 10,5 GB. Mit ner 2060 Non-Super 5,5 GB.

Entscheidend ist, ob es wegen zu wenig Vram zum stottern kommt, und das ist mit 8 GB derzeit in aktuellen Spielen seltenst der Fall. Und komm bitte nicht mit dem miesen HZD Port, der ist einfach nur besch..... gecodet.

Warum belegt er dann nicht die gesamten 8 GB, wenn doch vorhanden? Das aktuelle CoD ist Performancemäßig echt schlecht, BF5 sieht besser aus, braucht weniger RAM und liefert deutlich mehr FPS.
 
Pisaro schrieb:
"downgrade" auf die RTX 3080 10GB..
Ob es wirklich ein Downgrade ist bei der Speicherbandbreite und den neuen Technologien?
Ich glaube, wenn man sich die Daten ansieht, dass die 10 GB der 3080 besser sein werden als die 11 GB einer 1080 ti und das durchaus stark.
Natürlich kommt noch eine Version mit 20 GB aber ich glaube nicht, dass es eine so große Rolle spielen wird wie in den letzten 5 Jahren, DLSS wird immer besser, GDDR6X ist sehr viel schneller als die alten GDDR-Standards, ich bin sehr gespannt auf das Speichermanagment der neuen Karten und verspreche mir in der Tat viel davon.
 
Natürlich ist die RTX 3080 ein "downgrade" zu einer GTX 1080 Ti.
10 < 11 :evillol:

Ironie Ende ...
 
  • Gefällt mir
Reaktionen: Nefcairon, aklaa und Mcr-King
dynastes schrieb:
Effizienzsteigerungen funktionieren in beide Richtungen. Mehr Verbrauch kann gerechtfertigt sein, wenn die Leistung entsprechend mehr steigt - ob das der Fall sein wird, sehen wir in ein paar Tagen. Konsequenterweise zeigt sich also auch dann erst, ob wir den erwarteten Fortschritt auch wirklich sehen.

Sollten sich Nvidias Angaben zur RTX 3070 bewahrheiten, bekommst du im Übrigen auch deine Last-Gen-High-End-Performance mit deutlich weniger Verbrauch. Gleichzeitig ist es auch jederzeit möglich, die Ampere-Big-Chips so einzustellen, dass sie weniger schnell, aber auch sehr viel sparsamer sind als im Werkszustand - das war auch bei früheren Generationen immer so.

Stimmt, aber wenn man Bedenkt dass man ne Neue architektur + fertigung nutzt und gerade mal 30W Ersparnis bei 250W Ausgangsleistung hat, dann wirkt der Fortschritt nicht mehr ganz so groß, also musste man mit der TDP rauf um wirklich eine Mehrleistung gegenüber der Vorgängergeneration zu haben und steht Effektiv eig so viel besser da wie es anfangs scheint.
Ohne zusätzliche TDP wären wir wieder beim einer steigerung um 20-30% und das 2 jahre Später mit Shrink.
DLSS und RT sind nochmal ne andere geschichte, werden aber stand heute eh kaum verwendet.
 
  • Gefällt mir
Reaktionen: Mcr-King
Zeekuma schrieb:
Also falls es keine Evga gibt mit den Extra Sensoren, wirds ne founders. Nur für dir sensoren bin ich bereit mehr zu zahlen, auch wenn sie unter Wasser kommt. Seit der 1080ti FTW bin ich Sensoren Geil😁


Aus dem Evga Forum:
EVGATech_LeeM
Only FTW3 and K|NGP|N cards have the iCX3 Technology features, including sensors and safety fuse.
 
  • Gefällt mir
Reaktionen: silent2k
DarkerThanBlack schrieb:
Für mich ist dieses Line-up leider völlig unkaufbar.
In den ersten beiden Punkten gebe ich dir zumindest teilweise Recht. Im dritten Punkt muss ich aber einhaken, ja mehr Leistung wird verbraucht. Aber tatsächlich war das bis jetzt immer so das die nächste Generation mehr Leistung benötigt als der Vorgänger. Das mag der ein oder andere als Nachteil sehen, aber wenn es das nicht gäbe, würden wir halt immer noch mit 15 Watt Grafikkarten auf 1024x768 spielen. Solange das kühlbar und nicht störend laut ist, ist das mMn auch total egal. Schlecht wäre nur wenn man mit der höheren Leistungsaufnahme quasi keinen oder nur geringen Performance-Vorteil erzielen würde. Bei ca. 150% Stromaufnahme 80% mehr Leistung ist ein guter Deal. Schlussendlich geht es hier um ein reines Luxushobby und da über Verbräuche zu diskutieren ist überflüssig. Beim Motorsport guckt ja auch keiner auf den Verbrauch der Karren. Alternativ kauf eine Konsole...oh wait da steigen die Verbräuche ja auch von Generation zu Generation...dann Smartphones vielleicht?
zu 4. Wie kommst du darauf? Die Gerücht sagen was ganz anderes.

Unkaufbar würde ich das aber auf keine Fall nennen. Es bleibt erstmal abzuwarten ob der Speicher tatsächlich so ein großes Problem ist, wie hier schon seit Jahren immer wieder mantramäßig abgespult wird. Außer in absichtlich provozierten Situationen hat sich bisher noch nicht gezeigt das 10GB RAM zu wenig für irgendwas wären und da die Konsolen letztlich auch nicht mehr VRAM zur Verfügung haben werden, ist es fraglich ob sich das in Zukunft so massiv auswirken wird.
Schade ist es aber trotzdem das NV nicht mal die Option auf mehr VRAM in Aussicht stellt.
 
Tobi86 schrieb:
Es wird doch wohl irgendwelche Custom-Modelle der 3080 als Dual-Slot-Variante geben?!

Bis jetzt noch nicht 😉
 
DLSS hin oder her, wenn ich mir eine neue Karte hole dann sollte sie schon deutlich mehr VRAM haben als meine über 4 Jahre alte 1070.
 
  • Gefällt mir
Reaktionen: gua*, aklaa, grtty und eine weitere Person
DarkerThanBlack schrieb:
5. Die Option sich eine FE zu kaufen ist alleine wegen der Garantiebedingung von NVIDIA ein NOGO!

Wie sind diese? Kann man die auf der website finden?
Müssen sie sich nicht an dt. Gesetze halten in Bezug zu Widerruf und Gewährleistung 2 Jahre?
 
Coeckchen schrieb:
Ohne zusätzliche TDP wären wir wieder beim einer steigerung um 20-30% und das 2 jahre Später mit Shrink.
DLSS und RT sind nochmal ne andere geschichte, werden aber stand heute eh kaum verwendet.

Zu Punkt eins ja vorallem die RTX30er muss ziemlich sportlich sein was Stromverbrauch angeht.

So habe ich dass bis jetzt raus gehört aber wir werden sehen am Montag um 15 Uhr wissen wir mehr.

Zu Punkt zwei RT und DSSL sind ja keine Open Standards bisher mal sehen was von MS und AMD da so kommt. 😉
 
Vitali.Metzger schrieb:
DLSS hin oder her, wenn ich mir eine neue Karte hole dann sollte sie schon deutlich mehr VRAM haben als meine über 4 Jahre alte 1070.
Es ist nicht nur DLSS, die Speicheranbindung und die Geschwindigkeiten sind eine ganz andere Liga und IO gibts auch noch, alles nur auf die reine Speichermenge zu reduzieren ist in meinen Augen sehr kurzsichtig.
 
RomanticPsycho schrieb:
Der Stromanschluß könnte echt besser durchdacht sein.

3D-Drucker werdens schon irgendwie richten :cool_alt:
 
  • Gefällt mir
Reaktionen: Mcr-King
engineer123 schrieb:
Wie sind diese? Kann man die auf der website finden?
Müssen sie sich nicht an dt. Gesetze halten in Bezug zu Widerruf und Gewährleistung 2 Jahre?

Nee dass gibt es schon lange nicht mehr siehe Apple ein Jahr Garantie und dass wars, der Hersteller muß dir nur noch ein paar Monate Gewerleistung geben nicht mehr.
 
@Gerithos
Falls die Rechnung mit NVIDIAs IO Technologie aufgeht auch gut. Ich sehe das aber so, lieber jetzt etwas zu viel haben als dann später zu wenig.
 
  • Gefällt mir
Reaktionen: Mcr-King
Blumentopf1989 schrieb:
Warum belegt er dann nicht die gesamten 8 GB, wenn doch vorhanden?

Müsstest du die Entwickler fragen (bei DX12) oder nVidia (bei <=DX11) . Vermutlich muss ein Puffer für das OS freigehalten werden.

Pisaro schrieb:
Da sind die 11GB meiner 1080 Ti Gold Wert. deswegen mache ich kein "downgrade" auf die RTX 3080 10GB..

Und was würdest du sagen wenn Ark auf der 3080 mit 10GB VRAM besser liefe als auf deiner 1080Ti mit 11GB?
Es geht nie immer nur um die Menge des Speichers, sondern unter Umständen auch um dessen Geschwindigkeit.

Ich würde es ja feiern wenn es mal eine tiefgehende Betrachtung dieses leidigen VRAM Themas gäbe, egal ob nun von Computerbase oder sonstwem. Dann könnte man etwas referenzieren was diese naive "Mehr VRAM ist besser weil es mehr ist"-Ansicht korrigiert.
 
  • Gefällt mir
Reaktionen: zhompster, Blumentopf1989 und Gerithos
DocWindows schrieb:
Müsstest du die Entwickler fragen (bei DX12) oder nVidia (bei <=DX11) . Vermutlich muss ein Puffer für das OS freigehalten werden.
Wie könnte man den Puffer vom OS anderweitig auslagern ? Kann man die onboard graphic neben der richtigen Grafikkarte einstellend aktivieren und somit das OS zwingen den MB RAM für dieses Vorhaben zuzumüllen? Oder wird der MB RAM nicht schon lange dafür benutzt?...
 
Frage mich wie Digital Foundry da jetzt auf 70%~ bei SOTTR kommt, gut bei 4K passts.

Quelle
 

Anhänge

  • SOTTR.PNG
    SOTTR.PNG
    45,2 KB · Aufrufe: 366
  • Gefällt mir
Reaktionen: Philanthrop und Mcr-King
Nein dafür gab es HBMC und früher Shared Mem im Prinzip gibt es immer noch schaue dir mal GPU_z an da steht VRAM Discret und VRAM non Discret, was im Prinzip Dein Arbeitsspeicher ist.
 
Zurück
Oben