News Nvidia Ampere: PCB einer mutmaßlichen „GeForce RTX 3090“ abgelichtet

Linmoum schrieb:
Massenproduktion von 5nm bei Samsung läuft erst seit letztem Quartal, natürlich ist er damit ein Schwätzer. Die Dinger launchen schon nächsten Monat, zeitlich schlicht nicht machbar.
Und den 5nm Node braucht Samsung erstmal selbst für seine Socs im Android Umfeld...
@Shoryuken94 Was @pipip vermutlich meint ist der Umstand das du auf nem neuen Node eben nicht gleich so ein big Chip produzierst. Am Anfang sind die Yields eh schon nicht prall, da bindest du dir nicht noch so en Monster ans Bein..
NV könnte immerhin so nächstes oder übernächstes Jahr theoretisch dann einen 5nm Refresh bringen...
 
Zuletzt bearbeitet:
@Novasun Samsung 5nm sind kein neuer Prozess, sondern ein erweiterter 7nm Prozess und die Yield Raten damit deutlich oberhalb dessen, was bei einem neuen Prozess möglich wäre.

Samsung ist bei den Zahlen etwas kreativer. Samsungs Alternative zu TSMCs 5nm wären 3nm. Samsung hat aber von dem 7nm Prozess weitere Ausbaustufen, eine davon sind besagte 5nm, wo man den Prozess weiter verfeinert hat, ähnlich wie es TSMC auch bei den weiteren 7nm Prozessen gemacht hat (z.B. N6).
 
  • Gefällt mir
Reaktionen: Rickmer
Apropos GPU: Die Rückseite ist auf dem Bild zwar nicht verpixelt, jedoch wurde eine Intel-CPU darauf gelegt, um die Herkunft zu verschleiern.
Das ist doch die gleiche Seite bzw. das gleiche Bild nur statt verpixelt wurde eine komplette alte IntelCPU (und nicht nur das Logo) drüber gelegt. Wurde auch absolut mehrfach keinen Sinn so ergeben (Stichwort Schrauben, Stichwort Lötstellen, Stichwort Invertiert, usw.).
 
thepusher90 schrieb:
das wäre heftig, wenn nVidia Samsungs 5nm (EUV) Kapazitäten für Ampere bekommen hat.
Ich hab es mir angeschaut. Interessante Argumentation, aber für mich doch recht löchrig. Er nimmt Gerüchte beim Wort, um daraus Konsequenzen zu ziehen, aber ich halte das bei Gerüchten für sehr gefährlich.
 
Shoryuken94 schrieb:
Traurig, wenn du über Hobbys du nicht mal ein wenig über solche Dinge spekulieren kannst
Du empfindest es als traurig, wenn ich mein Hobby so auslebe, wie es mir Spaß macht? Das tut mir Leid, ich hoffe, du kannst deine Laune wieder aufbessern. Abseits dessen verstehst du bestimmt, dass ich mein Hobby so auslebe, wie es mir Spaß macht, nicht, wie du es für richtig hältst - die Welt ist nicht nur Schwarz-weiß.
Shoryuken94 schrieb:
Ah ja und wo genau sind denn die Fakten zur Effizienz?
Warum zitierst du mich und sprichst über Effizienz? Ich "spekulierte", obwohl du es nicht für möglich gehalten hast, dass die Karte entweder eine ineffiziente Enttäuschung, oder aber ein echtes Monster, was die Leistungsfähigkeit ist. Natürlich ist auch eine Zwischenstufe denkbar, aber ich bin der Meinung, dass Spekulationen ohnehin nicht die gesamte Bandbreite des Möglichen abdecken müssen. Ich habe die Effizienz der Karte weder gelobt noch gerügt und auch keine Information meinerseits einen Fakt genannt. Warum möchtest du denn jetzt Fakten? Bist du etwa nicht mehr in der Lage über solche Dinge dein Hobby betreffend zu spekulieren? Das wäre aber traurig.

Shoryuken94 schrieb:
Manchmal vermisse ich hier ein wenig die wirklich Hardwarebegeisterten Enthusiasten
Shoryuken94 schrieb:
Keine habe ich auch nie gesagt.
Leider doch.

Du verstehst etwas grundlegend falsch. Wenn ich dir sage, ich bin nicht deiner Meinung, dann nur um dir zu sagen, dass ich nicht deiner Meinung bin. Es geht mir nicht darum, dich anzugreifen. Du fühlst dich aber offensichtlich angegriffen, da du deiner eigenen Logik nicht folgen kannst. Deshalb mein Angebot: Wir haben beide begründet, warum wir der Meinung sind, es gibt hier Hardware-Enthusiasten oder es gibt hier keine/zu wenige. Jeder von uns akzeptiert die Meinung des anderen und am Ende des Tages gehen wir friedlich auseinander und hoffen beide, dass die kommenden GPUs uns überraschen - im besten Fall positiv. Natürlich erteile ich dir das letzte Wort, alles andere wäre nicht höflich.
 
  • Gefällt mir
Reaktionen: Tzk
Drei 8 Pin Stecker sauber sind die noch normal?
 
Super interessant. Ein Chip und sonst nur gepixeltes. Woooow
 
|SoulReaver| schrieb:
Drei 8 Pin Stecker sauber sind die noch normal?
Gab es bei einigen 2080ti doch auch schon ?;)

Ach ne da waren es 2x8 pin + 1x6 pin sorry
 
Muss mir entgangen sein, ist wirklich schon übertrieben...
 
  • Gefällt mir
Reaktionen: fox40phil
Also ich habe mir auch jims Video angeschaut und finde seine These (mehr ist das ja nicht) plausibel im Rahmen des Möglichen. Ich persönlich gehe zwar eher von 8nm aus, aber ggf. hat Jim noch mehr Informationen, die er aus Quellenschutz nicht preisgeben kann. Das ist Tech-Bingo und wir werden ja bald sehen, was dabei herauskommt.

Letztendlich muss man Leaks und Gerüchte so nehmen, wie sie sind. Es können mehrere Informationen stimmen, es können richtige alte und neue falsche Informationen sein, es können Köder für Leaker sein um ein Leck zu finden, Prototypen und veraltete Informationen oder schlechte Informanten.

Man muss sich hier die wahrscheinlichsten Teile heraussuchen und die Puzzleteile zusammensetzen. Immer mit der Möglichkeit, dass etwas unwahrscheinliches passiert.

Die Gerüchteküche wird auch meistens im Nachhinein nochmal sehr interessant, weil man über die verifizierten Leaks eine kleine Insidergeschichte bekommt, die den Hergang erzählt.

Die Radeon 7 wurde bspw. mehrmals in Leaks erwähnt, aber nie für realistisch befunden, und ist so unter dem Radar geflogen, bis das Ding tatsächlich aufgeschlagen ist und mehrere offene Münder hinterlassen hat. Man hätte die Radeon 7 aber anhand von Leaks schon ein Jahr vorher vorhersehen können.
 
  • Gefällt mir
Reaktionen: .Sentinel., thepusher90 und Shoryuken94
TorgardGraufell schrieb:
Gab es bei einigen 2080ti doch auch schon ?;)

Ach ne da waren es 2x8 pin + 1x6 pin sorry

Doch gab es bei einigen Karten. Hier eine Colorful RTX2080TI Kudan. Genau von diesem Hersteller soll auch das PCB auf dem Bild stammen. Sie sind bekannt für ziemlich extreme Karten, die gerne auch mal mit 4 Slot Kühlern kommen.
1597433565277.png


|SoulReaver| schrieb:
Muss mir entgangen sein, ist wirklich schon übertrieben...

Gibt es bei mehreren Extreme OC Karten. neben dem oben genannten z.B. auch in der 2080TI Kingpin Edition
1597433702237.png


Oder der MSI 2080TI Lightning....

1597433773639.png


Und somit kein wirklicher Grund sich drüber aufzuregen bei einer Customkarte. Selbst bei der 1080Ti gab es schon Karten mit 3 8 Pin Steckern wie die 1080Ti Lightning oder die Galax 1080ti HOF und gar bei den 980tis gab es sowas schon.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil und Lübke82
Hui, die Karte verbraucht mehr Saft, als mein Netzteil liefert. Aber ich bin vermutlich eh nicht die Zielgruppe. Nutze mehr oder minder immer nur altes Zeug weiter, damit es nicht unnütz entsorgt wird.

Faust2011 schrieb:
Ich finde, die muss man nicht unbedingt kennen.
Ich finde schon. Ist jetzt halt nur die News Suche bei euch, aber das sind halt auch einige Treffer ;)

CB_Colorful_News.png
 
Shoryuken94 schrieb:
Und somit kein wirklicher Grund sich drüber aufzuregen bei einer Customkarte.
Wo wir wiederum bei der Frage wären, ob es eben bei einer Custom bleibt oder ob es nicht beim Top-Dog die Regel wird, mehr als nur 2x8-Pin zu verbauen.

Denn behält Igor mit seinen 350W TGP recht, dann werden wir das definitiv von den AiB sehen. Wie will man sich sonst von Nvidias FE absetzen und einen Kaufgrund liefern? Es klingt zwar absurd, aber auch 2% mehr Leistung in Reviews ist für die Hersteller ein entscheidender Grund, die Karten hochzuprügeln. Und mit nur 2x8-Pin gibt es diesen Spielraum dann quasi nicht mehr. Von OC fangen wir da gar nicht erst an.
 
  • Gefällt mir
Reaktionen: fox40phil und Shoryuken94
@Linmoum Das werden wir dann sehen, wenn es soweit ist. Das hängt am Ende von vielen Faktoren ab. Welche TDP Konfigurationen gestattet Nvidia den Herstellern, hält sich ein Hersteller an die PCI Spezifikationen oder nicht.

Wie gesagt es gab bei der 1080Ti und 2080Ti mehrere Designs mit 3x8 Pol. Wie es diesmal aussieht, werden wir dann sehen, wenn wir die ersten fertigen Designs sehen. Sollten die 350 Watt auf das größte Gamingmodell und nicht die Titan zutreffen, dann werden wir wahrscheinlich mehr 3x8 Pin und 2x8 Pin +6 Pin Karten sehen.

Du kannst über die Stecker wesentlich mehr Strom ziehen, als Spezifiziert. Auch bei einer 500 Watt Karte reichen 2x8 Pin, wenn du kein billig Netzteil verwendest, hatte AMD sogar bei der R9 295x2 Referenzkarte so gelöst.

Die Customhersteller haben da am Ende den gleichen Spielraum wie bisher und die Stromanschlüsse sind da nicht wirklich ein Hindernis. Hier liegt es im ermessen der Hersteller, was sie für eine Konfiguration anbieten möchten. Denke aber auch, dass wir wohl mehr solche Karten sehen könnten.

Und auch beim OC ist das ganze kein Limit, wenn solch eine Karte theoretisch nur 2 8 Pin Anschlüsse hat und man die 400 Watt knackt. Bevor da die Anschlüsse limitieren, werden lange alle Luftlühler weit über das Limit hinauslaufen.

Seit Pascal oder Turing erlaubt Nvidia ja sowieso schon kein Overvolting mehr. Wenn Nvidia bei den FE Karten schon das Limit ausfährt, dann wird man auch mit OC nicht so extrem die Leistungsaufnahme steigern können. Aber auch hier müssen wir wohl die ersten karten abwarten. Aber auch Turing hat man schon nur per Voltmod freischalten können und wenn man schon an der Karte lötet, dann interessieren die PCI-E Spezifikationen der Stecker wohl eh nicht mehr :)
 
  • Gefällt mir
Reaktionen: Lübke82
Eigentlich klingen die 350W garnicht so schlecht, wären ja mehr als 50W weniger wie meine Kombi im Moment saugt^^
 
  • Gefällt mir
Reaktionen: Shoryuken94
TriggerThumb87 schrieb:
Um ehrlich zu sein.
Wenn ich sowas sehe, dann möchte ich mir gerne als neues, spezielles Hobby zulegen solche Teile zu fälschen und Bilder davon zu veröffentlichen.
Das kann ja bei dem was man da sehen kann nicht so schwierig sein.

Geb ich dir Recht!
Und hier auf CB zB wird sich dann darüber ausgelassen. Haha. Was manche da alles reininterpretieren
 
Sa.Lt schrieb:
heftig, ne 200-230W Karte fänd ich aber interessanter als so ein Strommonster.
Genau, zumal mehr Strom auch mehr Abwärme bedeutet, das kann ja heiter werden, da müssen schon besondere Kühllösungen her dann, und das lassen die sich dann nochmal mehr bezahlen, viel Spaß !!!

Meiner Meinung nach ist das eher ein Rückschritt was Nvidia sich da vornimmt, und das hat nichts mehr mit Effizienz zu tun, das war bei Turing noch deutlich besser.
 
mrdeephouse schrieb:
Geb ich dir Recht!
Und hier auf CB zB wird sich dann darüber ausgelassen. Haha. Was manche da alles reininterpretieren

Komm, lass mal sammeln. Vielleicht können wir uns ja mal zusammentun.
Unter Umständen geht das auch mit offizieller Unterstützung von CB. Jeden ersten Sonntag im Monat wird dann neue imaginäre Hardware der Zukunft präsentiert.
 
  • Gefällt mir
Reaktionen: mrdeephouse
Ach ja.. Colorful... mir unangenehm in Erinnerung geblieben als Hersteller der einzigen Grafikkarte, die mir je mitten im Betrieb abgeraucht ist.
Surf, surf, surf... schwarz, Bild, schwarz, Bild, schwarzzzzzz....

Aber auch schon bald 10 Jahre her.
 
Hejo schrieb:
Zusatz: und der "Ich-spar-mal-ein-paar-Watt-beim Netzteil-brauch-eh-keiner-Fan-Club" hier im Forum schaut auch dumm aus der Wäsche

Seit 8 Jahren 480Watt und immer wollte ich warten, bis ich wirklich mehr brauche. Der Zeitpunkt ist gekommen :D
 
Zurück
Oben