News GeForce RTX 3090/3080: Gainward führt vier Custom Designs in allen Details

keldana schrieb:

Wenn man mit einem 280+ Watt Bios arbeitet und ein mieses NT hat, zieht die gtx1080Ti bis zu 400 Watt aus der Dose.

Über 300 Watt die gesamte Karte zu bekommen (incl. Ram und Chip) ist nicht wirklich schwer, selbst bei einen gutem NT, welches dann bei 90% Wirkungsgrad ist, also auch schon fast 350 Watt erreicht.

mfg
 
guillome schrieb:
Es wird morgen keine 20GB 3080 vorgestellt werden. Lineup der Hersteller ist doch raus.
Du wirst morgen auch noch keine Karten kaufen können....
So what? Mach Dich doch nicht im Vorfeld schon kirre.
 
  • Gefällt mir
Reaktionen: KlaraElfer, cookie_dent und [wege]mini
[wege]mini schrieb:
Ich mag deinen Ansatz, dass die Industrie ein "netter" Mensch wäre.

Sie ist aber weder nett noch eine natürliche Person.

3 Liter Autos bei Motoren waren nicht gewollt, da die Lobby hier zu groß war. Bei Glühbirnen konnte man noch eingreifen, da die Stromversorger sehr häufig in staatlicher Hand sind oder mit staatlichen Geldern subventioniert werden.

Beim Öl ist es nicht so einfach.....

Den gleichen Fehler dürfen wir bei Chips nicht machen.

Die Zukunft der Welt in die Hände von der Industrie und von wohlhabenden Menschen zu legen, wird mMn aber nicht auf Dauer funktionieren, wenn ich mir die letzten 200 Jahre an schaue.

Ein Handy reicht heute, um damit Dinge zu machen, die vor 50 Jahren noch undenkbar waren. Das Facebook und Whatsapp im Zusammenspiel mit Youtube und Google jetzt natürlich dem Fortschritt im Wege stehen, ist nicht zu ändern. Gut finden, muss man das aber mMn auch nicht zwingend.

Unglaublich viel Leistung wird durch schlechte Informatiker verschwendet. Deal with it. Hier muss die Politik eingreifen.

btt:

Die custom Designs sind heutzutage halt noch "schlechter" als die FE. Sie sind zwar "schneller" aber sehr häufig noch unvernünftiger.

mfg

Ich verstehe jetzt absolut nicht, was Deine Antwort mit meinem Text zu tun hat.
Du hattest GPUs mit Glühbirnen verglichen. Bei den Glühbirnen gab es aber halbwegs brauchbare Alternativen (die Lichtfarben waren anfangs wirklich grottig), die nur 1/5-1/7 der Leistung benötigten bei gleichem Ergebnis. Nur wollten Hersteller und Konsumenten nicht so wirklich wechseln. Irgendwann gab es halt die grobe Kelle vom Gesetzgeber in Form von Verkaufsverboten. Bei den GPUs gibt es halt aktuell keine gleichschnellen Alternativen bei einem Bruchteil der Leistungsaufnahme, auch nicht in irgendeiner öminösen Schublade. Die Firma, die so etwas schafft zu entwickeln (egal ob GPU oder CPU) wäre vermutlich in 5 Jahren mehr wert als Apple.
 
Natürlich wirst du die vorgestellten Karten morgen in den Shops bestellbar haben. Ich mach mich nicht kirre bin noch gut versorgt und warte auf AMD.
 
Langsuan schrieb:
Die verfrühte Veröffentlichung gibt bestimmt Ärger mit der Lederjacke...

Eher Teil der Salami-Taktik die nVidia fährt.
 
Inxession schrieb:
Eher Teil der Salami-Taktik die nVidia fährt.
Meinetwegen könnte so langsam auch mal irgendein AMD Mitarbeiter seinen USB Stick im Zug "vergessen"
 
  • Gefällt mir
Reaktionen: cypeak, Kalsarikännit, GERmaximus und 5 andere
.Sentinel. schrieb:
Die 3080 gibt es doch lt. Gerüchten mit 20GB?
Wo ist das Problem?

Warum denn immer dieses provozieren.

Ist doch offensichtlich, das der mittlere Bereich von sagen wir 12-16GB eben nicht abgedeckt wird. 10GB klingt für ne grob 1.000Euro Karte erstmal knapp in 20/21 wenn man die 3-4Jahre nutzen will, 20GB wiederum klingt erstmal nach Overkill . Ich weiss schon das Speicherinterface... alles gut und schön dennoch fehlt halt einfach der oben genannte Sweetspot von 12-16GB und das wird halt bemängelt. Vielleicht muss da auch erstmal ein umdenken in unseren Köpfen her weil das kleinere Speicherinterface das 16GB erlaubt einfach nicht mehr ausreichend ist.

Ob man das jetzt braucht hängt ja auch davon ab wie lang man vor hat diese Grafikkarte zu nutzen.

Letztenendes kommt es doch auch drauf an WANN die 20GB Versionen erscheinen und wieviel Sie im Vergleich zu Ihrem 10GB Pendant mehr kosten.
 
  • Gefällt mir
Reaktionen: guillome und blackTEHhawk
McFritte schrieb:
Ich verstehe jetzt absolut nicht, was Deine Antwort mit meinem Text zu tun hat.

Weil dein Ansatz nicht richtig ist.

Du glaubst, dass du 20+ TFlop brauchst, weil du nichts anderes kennst als Wachstum.

Dabei ist es nur eine Zahl. Wenn es Licht wäre, könntest du sehen, ob es hell ist oder nicht.

Die Software Heinis müssen auf hören, Leistung zu verschwenden, als wenn sie auf Bäumen wachsen würde. Möglicher Weise muss die Politik sie dazu zwingen. Schlimm ist es aber nicht.

Man kann auch mit 30 PS von A nach B kommen. Ob das mit Klima Anlage möglich ist oder nicht, liegt an den anderen Gimmiks, die der user haben will.

Mehr Inhalte, weniger Bling Bling, weniger Blendkram. Dann passt das auch mit dem Verbrauch.

100 Watt mit heutiger Leistung ist 2025 nicht einmal eine Nachricht wert, da es eindeutig ein Rückschritt wäre. Hier muss die Politik ansetzten.

Ein 10 Watt Chip im Jahr 2030 wird selbstverständlich, die Leistung eines 300 Watt Chips 2020 haben. Jetzt ist die Frage, was man 2030 bauen wird und wie viel von der Mehrleistung dann immer noch verschwendet wird und ob wir schon wieder ein Facebook und Whatsapp zusammen mit Google erfinden.

mfg
 
[wege]mini schrieb:
...3 Liter Autos bei Motoren waren nicht gewollt, da die Lobby hier zu groß war. ...

Stimmt ja so auch nicht. Es gab um 2000 rum einen 3 L Lupo, der verkaufte sich so gut wie gebrauchte Zahnbürsten. Erst 5 oder 10 Jahre, nach der Ökosteuer und weiteren Spritpreissteigerungen war er dann durchaus sehr gefragt.

Klassisches Bsp. für ein sinnvolles Produkt was zur falschen Zeit am Markt war. Solche Bsp. gibts immer mal wieder. Minidiscs sind ähnlich gestorben, gutes Produkt... und dann kam die MP3 File.

Aber klar einen Lobbyeinfluss kann man beim besten willen allgemein was Autos angeht in DE nicht abstreiten.


PS: Ich finde LED Birnen sind so ein zweischneidiges Schwert. Die Anschaffungskosten sind um ein viel vielfaches höher als bei der Glühbirne. Je nachdem wo die Birne hängt dauert es schonmal 2-8Jahre bis sich die LED Birne rechnet... und jetzt kommts... mir sind schon etliche LED Birnen einfach so kaputt gegangen in den ersten 3 Jahren. Als Endverbraucher wage ich zu bezeifeln das ich dort wirklich über 10-20Jahre geld spare, dazu verändert sich das Lichtspektrum bei LED auch zügig bei Nutzung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: [wege]mini
Bin wirklich auf morgen gespannt.
Etwas neues soll eventuell noch dieses Jahr her.
Werde aber aufjedenfall warten was AMD bereitstellen wird. Konkurrenz belebt den Markt und die Preise.
 
guillome schrieb:
Natürlich wirst du die vorgestellten Karten morgen in den Shops bestellbar haben. Ich mach mich nicht kirre bin noch gut versorgt und warte auf AMD.

So "natürlich" ist das nicht. Die letzten Male war es auch so, dass es eine Vorstellung gab mit Preisen der FE, aber Listungen in den Shops waren an den Fall des NDAs/Testembargos gebunden. Ich gehe davon aus, dass das dieses Mal wieder so sein wird. Wir werden morgen die Produktdetails und FE Preise erfahren, sowie das Launch-Datum, welches mutmaßlich Richtung Ende September liegen wird. Erst an diesem Tag im späten September um 15:00 Uhr MESZ wird es dann die Tests und die Shop-Listungen der custom Modelle geben.
 
[wege]mini schrieb:
Man kann auch mit 30 PS von A nach B kommen. Ob das mit Klima Anlage möglich ist oder nicht, liegt an den anderen Gimmiks, die der user haben will.

Naja, man kann auch zu Fuß von A nach B kommen. Ist nur die Frage wieviel Zeit man investieren will und ob einem das Spaß macht.
Man könnte ja auch Monopoly im Kerzenlicht anstatt Cyberpunk in 4K spielen.
Aber will ich das?
 
cookie_dent schrieb:
Man könnte ja auch Monopoly im Kerzenlicht anstatt Cyberpunk in 4K spielen.
Aber will ich das?

Wenn man Cyberpunk mit der Auflösung eines Films der Jahre 1980-1990 spielen könnte, dafür aber mit der Anzahl an Polygonen, würdest du aufhören, ein Jünger der Auflösung zu sein.

Die Auflösung bringt dich nicht weiter, wenn dein Poly-count kacke ist.

Unendliche Anzahl von Polys dank RT (ab 10 TFlop mit 640x480 möglich) und wir hätten wenigstens Computerspiele, die qualitativ vergleichbar wären, mit Filmen aus den Jahren pre 1990.

Die waren sogar nur mit 24-30 fps ^^

Ich kann gar nicht sagen, wie sehr ich aktuelle "Macher" von Games verachte. Möglicher Weise muss man es mal gemacht haben, um zu wissen, was die da wirklich tun.

Jedes mal, wenn ich 2 verschiedene Steine auf 2 Meter sehe, könnte ich kotzen. Dafür muss man natürlich so einen Mist schon einmal gebaut haben.

4K ist Marketing und wenn man keine skalierbaren Texturen hat, kann man natürlich auch nicht skalieren :evillol:

mfg
 
  • Gefällt mir
Reaktionen: cookie_dent
guillome schrieb:
Natürlich wirst du die vorgestellten Karten morgen in den Shops bestellbar haben. Ich mach mich nicht kirre bin noch gut versorgt und warte auf AMD.

War bei Turing auch nicht so. Die werden morgen enthüllt, bestellbar sind die Karten erst mit dem Fall des NDA, dann wenn auch Tests zu den Karten erscheinen werden. Die 3090 wird mit Sicherheit auch stark eingeschränkt zum Start verfügbar sein, wie damals mit der 2080ti. Bis da einigermaßen Karten auf dem Markt sind, gerade Custom-Modelle, dauert mit Sicherheit bis Ende November / Anfang Dezember.
Ergänzung ()

.Sentinel. schrieb:
Die 3080 gibt es doch lt. Gerüchten mit 20GB?
Wo ist das Problem?

Die Eckdaten sollten schon identisch bleiben und nicht in einer Reduktion der Shadereinheiten, der RT-Cores, der Tensor-Cores und der kleineren Speicherbandbreite münden.
 
Bin mal gespannt was bei diesen Karten mit max. UV geht. Wenn das so weiter geht werd ich noch early adopter :D.
 
Rtxler schrieb:
Was steht denn zur Auswahl? Kannst du uns ein paar Vorschläge geben
Vielleicht sollte man erstmal abwarten, was dir Reviews sagen? Am besten auf den lieben Igor und seinen Tests mit dem Oszi warten.
 
  • Gefällt mir
Reaktionen: .Sentinel.
[wege]mini schrieb:

Also auf die abwertende Art brauchst du mir nicht zu kommen....

Ich sage schlicht, dass eben Infos fehlen. Die Info die mir persönlich wichtig ist fehlt. Und die Überschrift ist somit nicht korrekt und aus meinen Augen Clickbait.

Da kannst du dich jetzt auf den Kopf stellen wie du willst. Genau das ist eben meine Meinung dazu. Völlig egal, ob ein Herr wegemini meint, das dann korrigieren zu müssen, weil er meint, für ihn sei der Preis unwichtig. Ich hab Neuigkeiten für dich: Die Welt besteht nicht nur aus dir und es existieren doch tatsächlich Menschen mit freier, und von deiner abweichenden Meinung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JanTenner und Inxession
SKu schrieb:
Bis da einigermaßen Karten auf dem Markt sind, gerade Custom-Modelle, dauert mit Sicherheit bis Ende November / Anfang Dezember.

Das halte ich wiederum für ziemlich unwahrscheinlich, dann hätte man fast den Vorsprung gegenüber AMD verspielt und würde gleichzeitig mit den neuen Konsolen launchen.

Ich gehe schon fest davon aus, dass ab morgen Vorbestellungen möglich sein werden und noch diesen Monat die FE und einige der geleakten Partnerkarten in den Shops sind. Dass die Karten zum Start aber schnell ausverkauft sein werden, ist natürlich eine ganz andere Sache. Du kannst bei den heutigen Runs auf neue Technik nie "genug" Hardware im Voraus produzieren, es wird dann vermutlich wie zum Start der Super Karten aussehen.

Für Nvidia und die Partner ist jetzt das Momentum da praktisch beliebige Preise abrufen zu können, in ein paar Wochen wird man ja bereits in einigen Bereichen Konkurrenz haben und Leute geben dann ihr Geld auch für andere "Weihnachtsgeschenke" aus.
 
  • Gefällt mir
Reaktionen: GERmaximus und JPsy
Toni_himbeere schrieb:
Warum denn immer dieses provozieren.
Das Gegenteil ist der Fall. Ich schreibe doch die ganze Zeit, dass man sich hier mit Spekulationen verrückt macht.
Enstpannen, zurücklehnen. Man wird früh genug erfahren, wie das Lineup aussieht.

Ist doch offensichtlich, das der mittlere Bereich von sagen wir 12-16GB eben nicht abgedeckt wird.
Wenn nvidia die Speicherkonfiguration freigibt, dann ist eine 2070 mit 16GB denkbar.

Dann hätte man
8/16
10/20
und
24 GB zur Auswahl.

Wozu die Aufregung?

10GB klingt für ne grob 1.000Euro Karte erstmal knapp in 20/21 wenn man die 3-4Jahre nutzen will, 20GB wiederum klingt erstmal nach Overkill .
Interessant, dass Du schon die Preise kennst. Wieder künstliche Aufregung um Gerüchte und Spekulationen.

Vielleicht muss da auch erstmal ein umdenken in unseren Köpfen her weil das kleinere Speicherinterface das 16GB erlaubt einfach nicht mehr ausreichend ist.
Vielleicht hat Ampere aber auch eine Technik an Bord, die die Speicherbandbreite und deren Verfügbarkeit beschleunigt/erhöht?

Letztenendes kommt es doch auch drauf an WANN die 20GB Versionen erscheinen und wieviel Sie im Vergleich zu Ihrem 10GB Pendant mehr kosten.
So sieht es aus.
Da wir aber noch nicht mal wissen, wann alle anderen Versionen erscheinen werden und wie es überhaupt um eine evtl. Verfügbarkeit steht, ist auch da jegliche Form von vorauseilendem breakdown nicht zielführend.

Erstmal abwarten. Preise/Verfügbarkeiten/Temperatur/Leistung... steht alles in den Sternen.
Deswegen kann ich diesen ganzen aufgeregten vorab Himmel- und Hölle- beschwörenden Kommentaren nichts abgewinnen.
 
Zurück
Oben