M
mambokurt
Gast
Die sinkt auch noch weiterDie wilde Inge schrieb:Die NVidia Aktie ist ziemlich massiv im Preis gesunken. von ~250 auf ~140€. Ich frage ob man jetzt kaufen sollte :-D
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Die sinkt auch noch weiterDie wilde Inge schrieb:Die NVidia Aktie ist ziemlich massiv im Preis gesunken. von ~250 auf ~140€. Ich frage ob man jetzt kaufen sollte :-D
Laphonso schrieb:[...]Es gibt die gut verdienende Generation der 30-50jährigen, denen 1000 Euro für eine GPU "egal" sind, weil es ein Hobby ist. Das vergessen hier viele im CB Forum, da werden nvidia Käufer immer mal wieder als "Idioten" oder "dumm" oder "Opfer" tituliert, ohne dass die Moderatoren eingreifen, warum auch immer.
[...]
Der Marketshare von nvidia zeigt aber eindeutig, dass das hier postulierte "keiner kauft diesen teuren nvidia Kram" komplett realitätsfern ist.
[...]
Laphonso schrieb:Ich verstehe Deine „Botschaft“, und wir sind uns bei den Preisgestaltungen sicher eher einig.
Aber bei dem Vergleich wäre zu erwähnen, dass die 980Ti keine Tensor cores hat und damit auf dem AI/DLSS/RT bzw. DXR Feature contest mit 0 direkt raus ist, ebenso wie die 1080ti.
Die 2080Ti ist also nicht nur doppelt so schnell (in manchen sogar 3 mal schneller) wie die 980Ti, sondern liefert auch exklusiv neue, hardwareseitige Funktionen. Dann past das auch mit dem 3fachen Preis im Sinne es ist plausibel.
Äußerst seltsame Formulierung @MichaG - wir haben keine "Krypto-Flaute", die Blase ist geplatzt, der überraschende Mining-Boom ist vorbei - keine Flaute sondern Rückkehr zum Normalzustand. Mit Leiden hat das somit auch wenig zu tun, und wenn doch, dann selbst verschuldet - null Mitleid mit den Gierschlünden!MichaG schrieb:Grafikkarten-Absatz leidet unter Krypto-Flaute [...] litt die Grafikkarten-Branche besonders stark [...]
Die bekommst du auch bei Nvidia nicht...KarlKarolinger schrieb:Ja klar, man bekommt keine 144fps auf Ultra in 4K mit RayTracing wie mit NVidia und dem Intel 9900K [...]
Bringt halt nichts, wenn diese Features nicht gewollt sind, oder in den Spielen die man spielt überhaupt nicht genutzt werden.Laphonso schrieb:Aber bei dem Vergleich wäre zu erwähnen, dass die 980Ti keine Tensor cores hat und damit auf dem AI/DLSS/RT bzw. DXR Feature contest mit 0 direkt raus ist, ebenso wie die 1080ti.
Die 2080Ti ist also nicht nur doppelt so schnell (in manchen sogar 3 mal schneller) wie die 980Ti, sondern liefert auch exklusiv neue, hardwareseitige Funktionen. Dann past das auch mit dem 3fachen Preis im Sinne es ist plausibel.
Dann soll Nvidia halt als Alternative eine GTX 2080/1180 herausbringen...Laphonso schrieb:TLDR: Man kann die 2000er GPU Preise nicht isoliert von der Turing Technologie betrachten, weil man die mitkauft.
Das macht den Preisvergleich schwierig.
Don Sanchez schrieb:Die bekommst du auch bei Nvidia nicht...
Es gibt eben immer mehr Gamer die in die Jahre kommen und sich auch teurere Hardware leisten könne. Bei den Motorrädern ist es genauso, meist kommen heute graue Haare zum Vorschein wenn der Helm abgenommen wird, aber dafür verkaufen sich heute vor allem hochpreisige Maschinen, während das was früher Mittelklasse war, heute auf dem Markt kaum noch existiert.Skilance schrieb:Wenn man für manches Modell so viel ausgibt, wie man früher für einen ganzen Rechner bezahlt hat, dann geht es den Firmen (Nvidia) noch viel zu gut.
Der gesamte Markt ist gefallen und die Technolgieaktien ganz besonders. Ob dies der Anfang oder das Ende der Talfahrt ist, kann keiner wissen, da muss jeder selbst seine Entscheidung treffen und dann mit den Konsequenzen leben.Die wilde Inge schrieb:Die NVidia Aktie ist ziemlich massiv im Preis gesunken. von ~250 auf ~140€. Ich frage ob man jetzt kaufen sollte :-D
Wofür?Shoryuken94 schrieb:Kryptowährungen sind durchaus berechtigt
Eben genau so ist es! Auch bei den CPUs waren früher 1000$ das Limit für die größte HEEDT CPU und inzwischen sind wie bei 1800 (AMD) bzw. 2000$ angekommen. Es gibt eben heute eine wachsende Käuferschicht die sich sowas leisten kann und will. Bei denjenigen die dies nicht verstehen und dies als dumm oder Idioten abtun, dürfte vor allem der Sozialneid die Gedanken beherrschen, der ist ja leider in Deutschland sehr ausgeprägt.Laphonso schrieb:Es gibt die gut verdienende Generation der 30-50jährigen, denen 1000 Euro für eine GPU "egal" sind, weil es ein Hobby ist. Das vergessen hier viele im CB Forum, da werden nvidia Käufer immer mal wieder als "Idioten" oder "dumm" oder "Opfer" tituliert, ohne dass die Moderatoren eingreifen, warum auch immer.
Und ebenso bei den CPUs, da kann nichts machen und es macht diese Foren nicht attraktiver.Laphonso schrieb:Diese Oberflächlichkeit und Mißgunst schadet alles unseren Debatten hier und lässt jedes GPU Fachgespräch zu einem red vs green Lagerkampf verkommen.
Wieso sollte sie das? Die Blockchain ist die Verarschung des Jahrzehntes, denn sie dezentral nur sicher sein, wenn sie so viel Rechenleistung auf sich vereint, dass ein 51% Angriff durch den Aufwand unmöglich ist und damit kann es nur eine sichere, dezentral Blockchain geben, nicht aber viele und die ist zwangsläufig dann auch entsprechend ineffizient. Die Alternative ist eine zentral organisierte Blockchain bei der die Zentrealstelle die Transaktionen validiert bzw. bestimmt wer dies machen darf und dann hat man genau wie bei klassischen Datenbanken eine Zentrale die man vor Angriffen schützen müssen, da kann man auch gleich bei den klassischen Lösungen bleiben.Floxxwhite schrieb:Block-chain ist aber im Finanzsektor hoch interessant.
Wie gewaltig diese Rechenleistung sein muss, ist nur eben relativ.
In 10 Jahren redet keiner mehr davon und keiner wird den Mist mehr benutzen, weil es einfach nur Unsinn ist.
Welche CPU wird zu heiß? Wenn Du den 9900K meist, solltest Du wissen woher dies kommt:rob- schrieb:Außerdem ist die Hardware Anno 2018 ein schlechter Scherz. Sowohl bei CPUs und GPUs. Viel zu heiß,
Die Mainboardhersteller übertakten die CPUs schon in der Defaulteinstellung und teils kann man das UEFI gar nicht mal so einstellen, dass dies nicht passiert. Intels hat daran allenfalls Schuld weil sie die Mainboardhersteller da nicht stärker an die Kandare nehmen. Wobei alle es nach der Erfahrung mit Skylake-X, wo dies bei der Einführung auch ganz extrem war und mit späteren UEFI Updates dann etwas entschärft wurde, eigentlich besser wissen müssten, die Mainbaordhersteller, Intel, aber auch die Reviewer und die User. Aber dann hat man ja nichts mehr um zu meckern.
Laphonso schrieb:Wer auf den Taler achten muss und die dem Freesync überlegene GSync Technik nicht nutzt oder braucht, der ist bei den AMD 5xxx und Vega Modellen doch super aufgehoben.
Ich glaube nicht, dass NVIDIA eine solche Alternativen herausbringen wird, weil sie ja nun viele Jahre Geld, Zeit und Ingenieur = Ressourcen investiert haben und ihre Produktion darauf ausgelegt haben.Don Sanchez schrieb:Bringt halt nichts, wenn diese Features nicht gewollt sind, oder in den Spielen die man spielt überhaupt nicht genutzt werden.
Dann soll Nvidia halt als Alternative eine GTX 2080/1180 herausbringen...
cookie_dent schrieb:@Laphonso
Vielen Dank für die Liste, aber da ist gerade mal ein Spiel bei was ich evtl. spielen würde.
Das löst also genau "0" Kaufanreiz in mir für die Turing aus.
Demnach kann ich beruhigt die Füße hochlegen und auf den Turing Nachfolger, oder noch besser auf den Vega Nachfolger, warten.
Rage schrieb:Man mag ja Argumente für die ‚Überlegenheit‘ von G-Sync finden, aber die ‚FreeSync-Probleme‘ aus dem Artikel sind keine FreeSync-Probleme, sondern Probleme von individuellen Bildschirmen mit FreeSync-Unterstützung. Es gibt FreeSync-Schirme mit sehr enger FreeSync-Range und es gibt FreeSync-Schirme, die ghosten, aber das liegt nicht an FreeSync. Was im Vergleich zu G-Sync fehlte, war eine Art von Qualitätskontrolle bei den Bildschirmen bzw. Panels. Die Anforderungen für FreeSync2 sind deutlich schärfer und LFC ist mit dabei, was das erwähnte ‚Ruckelproblem bei Verlassen der FreeSync-Range nach unten‘ bekämpft (verwunderlich, dass FreeSync außerhalb des angegebenen Bereiches an Bildern pro Sekunde nicht mehr funktioniert). Das liest sich insgesamt wie ein schlecht recherchiertes Kondensat des schon damals zweifelhaften Artikels von PCPerspective zum Thema (den ich im Orginal leider gerade nicht finden kann).
Was Input-Lag und Verhinderung von Tearing angeht, gibt es soweit ich weiß keine großen Unterschiede zwischen G-Sync und FreeSync.
Ein definitiver Nachteil bei der Umsetzung neurer G-Sync Schirme ist, dass das neue G-Sync HDR Modul geschätzte 500$ kostet, deshalb nur bei absoluten High-End Bildschirmen verbaut wird, und der Vorgänger nicht ausreichend Bandbreite für 3440x1440p@144Hz mitbringt. Als Beispiel sollten diese beiden LG Bildschirme genannt werden. Hier ist der FreeSync-Schirm sogar technisch überlegen.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.