News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

Wadenbeisser schrieb:
G-Sync oder G-sync compatibel, wobei letzteres adaptive-sync/FreeSync entspricht?

Der Monitor 34GK950G hat ein G-Sync Modul verbaut und bietet VRR nur über G-Sync.
Mein Oled (B9) ist laut rtings HDMI Forum VRR fähig, sowie von nvidia zertifiziert als G-Sync kompatibel, während Freesync wohl gar nicht unterstützt wird (kann ich auch nicht selbst testen), zudem läuft die Xbox One X wohl über HDMI Forum VRR an dem TV.

Ziemlich verwirrend, jedenfalls ist AMD mit meinem aktuellen Equipment für mich keine Option für die nächsten 2+ Jahre und so wird es sicher auch anderen gehen.
 
@Beg1

Nur ist VRR eher der Oberbegriff für beide und sofern G-Sync immernoch an den DisplayPort Anschluss gebunden ist dürfte die Warscheinlichkeit hoch sein das es dabei um den VESA Standard geht und nicht um nvidias G-Sync selbst. Als G-Sync compatibel bezeichtent nvidia schließlich die VESA/FreeSync Modelle die sie getestet hatten und ohne G-Sync Modul auskommen. (gegen deren Unterstützung man sich über Jahre geweigert hatte)

Im Zweifelsfall einfach mal einen Rechner mit einer halbwegs aktuellen Radeon anschließen und schauen ob FreeSync angeboten wird.
Ergänzung ()

hier noch die passende News:
https://www.computerbase.de/2019-01/nvidia-adaptive-sync-freesync-g-sync/
 
  • Gefällt mir
Reaktionen: xexex
.Sentinel. schrieb:
Auch generell ist eine gewisse Innovationsmüdigkeit unverkennbar.
Naja, was will man denn auch bei derzeitiger Sachlage feiern:
  • dass die Karten schneller als die Vorgängergeneration sein wird? Davon kann man wohl ausgehen.
  • einen neuen Stromstecker? Der macht eher etwas Angst.
  • (vermutlich) überproportional höherer RTX-Leistungsanstieg im Vergleich zur Rasterleistung? Vielleicht, wer es nutzen kann.
  • Das neue Lüfterdesign? Gefällt mir optisch tatsächlich richtig gut, über die Praxistauglichkeit werden die Tests richten (wobei ich nicht davon ausgehe das NVIDIA da völlig danebengreift).
Also alles ziemlich Mau im GPU-Bereich, gefeiert wird im CPU-Sektor wo die MultiThread-Leistung ja geradezu explodiert ist in den letzen drei Jahren.
 
Kalsarikännit schrieb:
Das neue Lüfterdesign? Gefällt mir optisch tatsächlich richtig gut, über die Praxistauglichkeit werden die Tests richten (wobei ich nicht davon ausgehe das NVIDIA da völlig danebengreift).
denke ich auch nicht...nvidia war ja die letzten jahre immer deutlich leiser bei den referenzdesings als amd
und ich glaub kaum das die ne high end karte raushauen die sich anhört wie ne turbine
 
  • Gefällt mir
Reaktionen: JohnnyTexas
Gibt es schon einen Foren Thread wo man den Preis der Geforce 3090 erraten kann?
 
Wadenbeisser schrieb:
Nur ist VRR eher der Oberbegriff für beide und sofern G-Sync immernoch an den DisplayPort Anschluss gebunden ist dürfte die Warscheinlichkeit hoch sein das es dabei um den VESA Standard geht und nicht um nvidias G-Sync selbst.

Wie gesagt, hab keine AMD-Karte zur Hand.

Hab mal gegoogled und scheinbar gab es für einige LG OLEDs tatsächlich kürzlich auch ein Update welches Freesync freischaltet, ging wohl um fehlende Informationen, weswegen G-Sync compatible ging und Freesync nicht.
 
@Trinoo

Wem man eine Frage zu PCI-E stellt, ist man gleich ein "Nvidia-Gegner?"

Manche MM2 SSDs haben dicke Kühlkörper, z.B. die von Corsair. Ich meinte natürlich den PCI-E Slot unterhalb der Grafikkarte.
 
Hardware_Hoshi schrieb:
Im Prinzip "ja", aber die Problematik sind die Kühlungs- und Platzbeschränkungen innerhalb einer Konsole. Dort kann man nicht dieselbe Leistung unterbringen wie in einem fetten PC. Deshalb muss alles auf ein vernünftiges Maß heruntergeschraubt werden.
[..]
Meist ist es eine APU oder ein SoC mit Kombination von Grafik + CPU. So ein Chip hat niemals jewels 200W+ TDP wie eine große Desktop Grafikkarte. Man sollte also nicht zu viel erwarten!
Die Daten sind doch bekannt, der Chip ist größer und hat mehr CUs als eine 5700XT, die CUs sind durch RDNA2 sowohl leistungsstärker als auch verbrauchsärmer und der Takt liegt auf dem Niveau der 5700.
In Summe ist die Series X ein gutes Stück stärker als die 5700XT.

Bei der PS5 sieht es nicht anders aus, die hat genausoviele CUs wie eine 5700, taktet aber gute 25% höher und auch hier sind die CUs eben performanter als bei der 5700.

Und der Verbrauch der CPU wird bei den angelegten Taktraten irgendwo bei 40W liegen, die GPU kann also auch locker 200W bekommen.
 
Kimble schrieb:
Vor 17 Jahren, der Föhn!

Hammer der Woche danke ;=)

UNRUHEHERD ich setz mich noch hin und mach mal ein Bild dann verstehst es denke ich.
 
Laphonso schrieb:
Ist ja nicht so, dass nicht gerade AMD im Top End Segment aus Gamersicht an mehreren Fronten enttäuscht hat, und dennoch gingen die Radeon VII bis zu 900 Euro weg, was Deine Aussage unterläuft.

Dir geht es nur um Highend, dabei ging es in meinem Quote gar nicht. Wie wärs wenn du auch die Beiträge, welche ich zitiere, durchliest ?
 
Trinoo schrieb:
zum Thema PCIe x1 Slot, Abstand zum Cpu Kühler, M2 Slot, Rambänke usw.

auch dies finde ich sind Fragen ohne das nachgedacht wird...
Anhang anzeigen 958344
1598281783945.png


Rumguffeln schrieb:
denke ich auch nicht...nvidia war ja die letzten jahre immer deutlich leiser bei den referenzdesings als amd
Vllt wird es das Jahr auch bei AMD besser.
https://www.computerbase.de/2020-03/next-gen-radeon-amd-referenz-axial-luefter/
 
@Kimble

meinte ja nicht direkt dich ;) Aber wenn Du dich direkt angesprochen fühlst...

Man liest halt aktuell vermehrt das man nun direkt ein neues Netzteil braucht, da alle neuen Gpus den 12Pin Anschluss nutzen.
Das Pcb "mittig" wäre und somit große Cpu Kühler nicht mehr passen... und all so einen Quatsch.


mp600_hero.jpg


Ist der Heatsink denn höher als der Pcie Slot? Selbst wenn, wie viel höher? denn die Karten liegen ja nicht zu 100% am Pcie Slot an, da ist ja noch etwas Luft

Unbenannt-1.jpg


Ich denke nicht das es da zu Problemen kommen wird... oder bestehen die aktuell schon?

Bisherige Grafikkarten nutzen doch auch 2, 2,7 oder 3 Slots, verstehe nicht wo da der Unterschied ist.
 
Genoo schrieb:
Meine GTX 1080 Ti hab ich knappe 3 Monate nach Release in einer Mitternachtsaktion um 644,-€ geschossen
RTX 2080 Ti die 30-40% schneller ist -> 1.200,-€ :freak:


Und ich hab eine 2080Ti schon mehrfach im Mindfactory Mindstar für 850 Euro gesehen.
Dein Vergleich ist so völlig unsinnig. Normalpreis vs. Angebotspreis.

aldaric schrieb:
Dir geht es nur um Highend, dabei ging es in meinem Quote gar nicht.

Man muss erst einmal die Realitäten verleugnen um zu der Behauptung zu kommen AMD habe "oft" die besseren Produkte gehabt. Tatsache ist, dass der Polaris Launch, der Vega Launch, der Radeon VII Launch und auch der 5700XT Launch mit den Blackscreens eher enttäuscht haben. Insofern wundert es glaub ich niemanden, dass der Marktführer deutlich mehr GPUs absetzt als zu Fermi Zeiten, oder zu X800 Zeiten, in denen AMD der Marktführer war.

Immer suchst du die Schuld bei den Käufern, nie bei AMD selbst, das ist einfach lächerlich.
Und mir persönlich ist es sowas von egal welches Unternehmen nun Martkführer ist und welches nicht und die Tatsache, dass wir immer noch alle zwei Jahre mehr Leistung für weniger Geld bekommen und das obwohl das Risiko immer weiter steigt, alles komplexer wird und die shrinks mit der aktuellen Technik bald zuende gehen und Graphen noch um ein vielfaches teurer werden, ist einfach großartig.

Preisgezanke um ein paar Euro (und in den Größenordnungen was da an R&D und Aufwand betrieben wird sind das nun mal Peanuts) ist völlig unnötig, da Käufer in allen Preisklassen profitieren, auch der, der für 250 Euro eine GPU kauft. In einem Jahr bekommt man für das Geld wohl GTX 1080Ti Leistung, neu.
 
Zuletzt bearbeitet von einem Moderator: (Falsches Zitat)
  • Gefällt mir
Reaktionen: Andybmf, Laphonso und Trinoo
Kalsarikännit schrieb:
Naja, was will man denn auch bei derzeitiger Sachlage feiern:
  • dass die Karten schneller als die Vorgängergeneration sein wird? Davon kann man wohl ausgehen.
Ja- Ist es nicht toll, dass es überhaupt gerade noch so weitergeht mit der Leistungssteigerung?
Hast Du schonmal gehört, dass es physikalische grenzen gibt? Grenzen im Wachstum im Allgmeinen?
Ganz schön selbstgefällig und vermessen, das als Gottgegeben zu sehen, dass alles einfach immer so weitergehen würde.

einen neuen Stromstecker? Der macht eher etwas Angst.
Ein Stromstecker, der grundsätzlich Kapazitätsreserven bietet und einfacher zu installieren ist macht Dir Angst?

(vermutlich) überproportional höherer RTX-Leistungsanstieg im Vergleich zur Rasterleistung? Vielleicht, wer es nutzen kann.
Das wäre äußerst positiv. Weg mit dem Raster- Müll und massiv die Leistung in Sachen RTRT steigern.
Faktor 4 und wir haben die Rasterisierung bereits abgehängt. Mit der hochparalellisierbaren RTRT Technik sind endlich wieder RICHTIGE Leistungszuwächse und vor allem auch eine positive Zukunftsaussicht in Sachen Steigerung der Grafikqualität gegeben. Seit Crysis 2007 krebsen wir im Prinzip mit der immergleichen Grafik rum.

Das neue Lüfterdesign? Gefällt mir optisch tatsächlich richtig gut, über die Praxistauglichkeit werden die Tests richten (wobei ich nicht davon ausgehe das NVIDIA da völlig danebengreift).
Also alles ziemlich Mau im GPU-Bereich, gefeiert wird im CPU-Sektor wo die MultiThread-Leistung ja geradezu explodiert ist in den letzen drei Jahren.
Der CPU Sektor ist ein absoluter Witz gegen das, was sich am GPU Sektor getan hat.
Die Steigerung der Rechenkraft ist dort ungleich höher.

Das ganze Explodieren der Multithread Leistung bringt die bei CPUs mit steigender Anzahl der Kerne bei immer weniger Anwendungen was. Somit weiss ich auch nicht, ob da solche Begeisterungsstürme angebracht sind.

Noch können wir den kommenden Generationen positiv gestimmt gegenüberstehen. Geheult werden kann dann, wenn das erste Fertigungsverfahren an den physikalischen Grenzen angekommen ist.
Dann wird es RICHTIG teuer.
 
  • Gefällt mir
Reaktionen: JohnnyTexas, KlaraElfer und freezer255
cunhell schrieb:
In den allermeisten Fällen ist es für Lager gesünder, wenn sie dauerhaft laufen als dauernd mit start und stop gequält zu werden.

Ja und nein! Mein PC läuft auch schon mal 10h komplett ohne wirkliche Last. Da ist es dann definitiv vom Vorteil wenn der Lüfter gar nicht mitläuft.
 
aldaric schrieb:
Dir geht es nur um Highend, dabei ging es in meinem Quote gar nicht. Wie wärs wenn du auch die Beiträge, welche ich zitiere, durchliest ?

Ich beziehe auch gerne Postion in den Debatten hier und "streite" mich auch gerne um Beurteilung und Deutung von PC Gaming und des Drumherums hier in dem FOrum.
Deine Postinghistory auf Computerbase, aldaric, ist aus meiner Sicht jedoch durchweg ein undifferenziertes Bashen auf alles, was nicht AMD ist, und damit bist Du in meinen Augen seit Jahren hier einer der aktivsten Anti-Intel und Anti-Nvidia Schreiber.

Nvidia wurde gar nichts verziehen, was sie veranstaltet haben, sei es der PR Gau zur 970, der nvlink Flop oder die entgleiste Hypetrain zu Raytracing, die immer noch dabei ist, den Initialbahnhof zu verlassen und bereits von DLSS überholt werden könnte.
Das ändert nichts an dem, was die Nvidia GPUs "leisten" und in Games an fps schieben oder Features bieten. Völlig losgelöst davon wie man das Unternehmen findet, kann man sich die Produkte anschauen.


Will sagen: So sehr man Nvidia auch doof finden kann, kann man auch differenzieren. Das finde ich bei Dir nicht, aldaric...

Wenn man man also selbst pauschal und generell etwas abwertet und passiv-aggressiv polemisiert, ist man als Quelle und Urheber des Beitrags der Impulsgeber, nicht die Rezipienten. Sprich: Drück Du Dich bitter klarer aus in Deinem Nvidia Bashing und schere nicht immer alles über einen Kamm, bevor Du mir vorwirfst, ich "lese nicht richtig".

Die Befindlichkeit hier mancher Poster, die aus der Diskussion um Hardware Spielzeug persönliche und emotionale Angelenheiten machen, wird hier ganz großes Kino, sobald der 3000 Launch kommt.
 
  • Gefällt mir
Reaktionen: xexex, Andybmf, KlaraElfer und 3 andere
" Ja und nein! Mein PC läuft auch schon mal 10h komplett ohne wirkliche Last. Da ist es dann definitiv vom Vorteil wenn der Lüfter gar nicht mitläuft. "

Mein Rechner läuft Minimum in der Regel Tage durch und die letzten 4 Wochen war der durchgängig an.
Die Lüfter drehn trotzdem auf kleinster Stufe und geschadet hat das auch noch nie.
Aber bisher hatte ich auch noch nie Lüfterschäden gehabt, also kann Ich da auch kein Vorteil erkennen^^
 
Laphonso schrieb:
Die Befindlichkeit hier mancher Poster, die aus der Diskussion um Hardware Spielzeug persönliche und emotionale Angelenheiten machen, wird hier ganz großes Kino, sobald der 3000 Launch kommt.

Auf dein Posting gehe ich gar nicht erst ein, weil mir meine Zeit zu schade ist. Mit diesem Satz hast du dich jedoch gänzlich disqualifiziert. Denn genau das machst du, du akzeptierst die Standpunkte derer nicht, welche die Preise als nicht attraktiv ansehen und machst daraus eine emotionale Diskussion.

Wer nVidia's Geschäftspraktiken kritisch gegenüber steht, ist also bei dir direkt ein verblendeter AMD Fan, wobei ich selbst eine GTX 1070 im Rechner habe. :volllol:
 
Zurück
Oben