grafikkarte für davinci resolve die schneller ist als macbook m1

FranzFunke

Cadet 3rd Year
Registriert
Okt. 2019
Beiträge
41
1. Wie viel Geld bist du bereit auszugeben?
…500€

2. Möchtest du mit der Grafikkarte spielen?
  • nur gelegentlich/ muss nur besser sein als die aktuelle (Radeon 280 2GB)
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
Ja Davinci Resolve, 4K schnitt

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
1 LG 4k

5. Nenne uns bitte deine aktuelle/bisherige Hardware:
  • Prozessor (CPU): … AMD ryzen5 3600
  • Aktuelle/Bisherige Grafikkarte (GPU): ... radeon 280
  • Netzteil(Genaue Bezeichnung): …700 watt be quiet


7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
kann auch warten.


Hallo ich schneide beruflich Musikvideos und arbeite meist auf meinem m1 macbook, da ich auch viel unterwegs bin. Manchmal ist mir der 13zoll Bildschirm allerdings zu klein, gerade beim Grading. Habe mir letztes Jahr den LG 34WP65C geholt ("damals" kostete ert noch das doppelte :p)
Für den zweiten Monitor ist das macbook allerdings spürbar zu langsam, zumindest für meinen Anwendungsbereich. Mein "alter" Tower PC (windows) hat einen ryzen5 3600 und 32gb ram, nur die Graka ist sehr alt (RadeonR9 280) mit lieder nur 2GB Vram. Damit kann Davinci garnichts anfangen und meckert selbst auf reduzierter Auflösung. Auf dem Tower mache ich sonst sehr flüssig Bildbearbeitung und pflege meine Website usw., er wird also aktuell auch genutzt.
Laut googel suche sollte eine Graka für 4k schnitt wohl um die 500E kosten müssen!?, das ist es mir aktuell nur bedingt wert bzw. nur dann, wenn diese auch merklich schneller wäre als mein macbook.

Was meint Ihr, wäre mein Tower mit 500€ investment schneller/so schnell wie mein macbook (16gb, m1). Nicht Gaming natürlich, darum geht es mir nicht. Falls nicht würde ich wohl vorerst warten bis sich ein Graka investment lohnt . Danke schon mal für eure Antworten.
 
Mit 500€ kommst du aktuell nicht weit.
Wegen Cuda sollte es eine Nvidia sein (Die AMD openGL treiber sollen müll sein, ich glaub die haben das eh schon lange eingestellt) und unter der 3060 (mit 12gb am besten) würde ich mir nix holen.
Wie stark der Unterschied zum m1 ist, ist schwer zu sagen.

Viele testen gegen die M1 Max Version, einige vergessen die Hardwarebeschleunigung am PC zu aktivieren....
Ich hab keine Ahnung wie viele hier im Board beides zuhause haben, also potenten, neueren Rechner + genau den M1 mit 16gb.
 
Habe wie gesagt den ryzen 3600, 32gb 3600er ram (Gskill glaube), und im Tower u.a die samsung 980, (aber auch noch ne menge anderer externer M2 SSDs die ich häufig zum schneiden benutze mit thunderbold 3 usbc)

die geforce 3060 wurde mir schon ans herz gelegt, finde es aber doch auch krass was da aufgerufen wird zZ.
600€ für die grafikarte und 900€ für den ganzen PC? : https://www.cyberport.de/?DEEP=1129...RFhe7c9bR2pHqCqEUXg2fHuXC9fF9riAaAoPLEALw_wcB

Kann man denn absehen ob die 3060 dieses Jahr auch nochmal günstiger wird bzw. ob demnächst beispielsweise ne neuere Nvidea verkauft werden wird? Oder muss man da in den sauren apfel beißen?
Ergänzung ()

600takken finde ich aber eigentlich doch zu viel, für 700€ gibt es ja auch schon den kleinsten m1 mac mini. Wäre dann auch die Frage ob der alleine mit dem Bildschirm schneller ist als das macbook mit dual monitoring. Mit dem macbook bin ich ja wie gesagt sonst zufrieden und kann alles flüssig machen nur beim zweiten Bildschirm wirds dann teilweise anstrengend...
 
FranzFunke schrieb:
Oder muss man da in den sauren apfel beißen?
This. Und selbst da ist es sehr spezifisch, in welchen Szenarien hier der M1 die Nase vorn hat und in welchen Nvidia. In der Timeline umherscrubben geht wohl wegen Optimierung auf die Decodereinheit des M1 auf diesem besser, egal welche GPU man unter x86 verwendet. Bei vielen Effekten, Grading und Filtern kann man den M1 aber durchaus mit Rohleistung besiegen, auch mit einer 3060. Die 3050 würde ich aber nicht in Betracht ziehen, wenn es ein deutliches Upgrade sein soll.
 
ok, dann bin ich da schon mal wieder schlauer und up to date, danke für die informationen!!! Genauso schnell würde mir ja vermutlich auch schon reichen, aber wie gesagt läuft sonst ja auch alles erstmal wie gewohnt mit dem lappi. Müsste die Graka also auch nicht gleich morgen bestellen. Kann man denn absehbar vielleicht doch noch irgendwo auf ein schnäppchen hoffen? Auf Angebote warten? Gebraucht kaufen? Oder ist das alles zZ aussichtslos? Vielen dank nochmal :)
 
Wenn man seinen Alltag damit verbringt nach Schnäppchen zu suchen findet man auch ab und zu eins. Aber du bist nicht der Einzige der auf der Lauer liegt, GPUs sind gefragt.
Und wenn das nicht automatisiert abläuft verbraucht das so viel deiner Zeit, das es sich aus Wirtschaftlicher Sicht nicht lohnt das zu betreiben.

Die Preise entwickeln sich gerade im Schneckentempo nach unten, es ist wohl einfach Geduld gefragt. Wenn man Jetzt eine braucht, dann muss man eben mehr Ausgeben. Ist halt so, ich hab jetzt mehr als ein Jahr auf ein gutes Angebot gewartet und es mittlerweile aufgegeben.
 
da hier nicht um games geht brauchst lediglich den nvenc encoder
Dieser ist schon in der RTX3050 voll dabei in allen ampere gpu ist derselbe encoder drin
Somit rechnet jede ampere gpu gleich schnell
wenn es aber um gpu beschleunigte effekte geht lass dir gesagt sein das bei allen ampere die gleiche leistung bringen werden.
echtzeit geht immer aber Sobald was mit dxr machen willst in blender merkt man die anzahl der rt cores deutlich. eher wirst erfolgreich sein bei unreal engine 5
Daher diese gpu unter 320€ sofort kaufen und ja es gibt die angebote
meist Saturn mediamarkt
https://geizhals.de/?cat=gra16_512&v=l&hloc=de&sort=p&bl1_id=30&xf=9810_06+16+-+RTX+3050
 
syfsyn schrieb:
da hier nicht um games geht brauchst lediglich den nvenc encoder
Das ist falsch. Hier geht es um Davinci Resolve, das Programm stützt sich stark auf CUDA/OpenCL und den Grafikspeicher der GPU um alle möglichen Aktionen zu beschleunigen. NVDEC wird bei einigen Medienformaten genutzt, NVENC hat in Davinci hingegen kaum Relevanz.
https://www.pugetsystems.com/labs/a...GeForce-RTX-3070-Ti-3080-Ti-Performance-2185/
https://www.pugetsystems.com/labs/a...-is-Supported-in-DaVinci-Resolve-Studio-2122/
Screenshot 2022-02-24 at 02-59-45 DaVinci Resolve Studio - NVIDIA GeForce RTX 3070 Ti 3080 Ti ...png

The GPU effects portion of our benchmark looks at the performance of individual GPU-accelerated effects such as temporal noise reduction, film grain, lens blur, optical flow, face refinement, and more. In our testing, these effects easily show the largest benefit from having a powerful GPU, which means that they should give us the best look at the maximum performance gain you may encounter from each of the GPUs we are testing.
 
Das wäre aber gpu effekte wie ich schon beschrieb die laufen in echtzeit wie lange das am ende beim rendern wirkt hängt stark davon ab wieviel effekte man in nen video einbaut und wie lange die sind.
Also primär von der cpu abhängig das aber ist programm abhängig in davinci resolve fraglich ob das was bringt.
Für komplexe Bildberechnung ist maßgeblich die cpu verantwortlich die gpu unterstützt nur filter effekte.
nvenc ist da eher zu gebrauchen.
Und wieviel fps der vorgang braucht ist relativ egal das der encode vorgang länger dauert.
Außer man arbeitet mit nvme und raw data ohne de-encoding
Das aber bedingt rohmaterial in lossless codec
 
Moin, war gestern im Bett noch ein wenig in der Youtube rabbit hole und habe jede menge m1 vs XY videos geschaut, gerade bei video stinkte der gehypte Mac eigentlich doch meistens noch ab, gegen die laptops mit dedizierter Graka und namentlich die 3060. Wobei man die Laptop Modelle ja vermutlich auch nicht 1:1 mit den großen DesktopKarten, die mehr Strom nehmen können vergleichen kann? vermutlich?? Naming ist für mich Leien da doch etwas problamatisch.

Die 3050 würde preislich für mich klar gehen. Würde mir sonst die erstmal bestellen und wenn sie doch zu langsam für meinen workflow sein sollte einfach nochmal umrüsten auf die 3060(kann man ja umtauschen, oder direkt wieder für teurer verkaufen -spaßi:D

Ist sonst die 2060 noch zu empfehlen? Liegt ja glaube zwischen den beiden genannten Karten. Minen will ich natürlich nicht damit, falls das ne wichtige information ist :lol:
 
achso und blender benutz ich garnicht. effekte können da natürlich gerne mal einige drauf sein.
Render Times sind mir auch herzlich egal bei 2 Minuten 4k videos mit meist 24p. ob ich jetzt 2 minuten oder 5 minuten kaffeepause mache. Vielleicht sind mir die 5 sogar lieber :D :D
 
also geht nur ums scrubbing bzw Timeline Playback. das muss halt definititv passen dass ich da die 24fps bekomme ( klingt für nen gamer nach alptraum vermutlich^^) um die cuts auf den frame korrekt zu bekommen, aber da mach ich auch beim mac auch gerne mal auf halbe auflösung wenn ich viele effekte habe (macht auf dem vorschaubild des 13 zoll merklich fast eh keinen unterschied) und denn zum grading halt wieder hoch, wobei ich da keinen super flüssigen playback mehr brauche.
 
Also wenn du es probieren willst, mich würde deine Erfahrung A vs B durchaus interessieren. Ich hab keinen M1, kann mir also kein Bild davon machen, wie gut das Teil wirklich ist. Gelobt wird er ja in den Himmel, aber es ist oft schwer zu differenzieren, was davon Hype ist und was nicht.
 
ghecko schrieb:
Und da brauchst du eben Leistung in der Grafikkarte, insbesondere um den Workflow flüssig zu halten. Gerade da wird der M1 ja scheinbar besonders gelobt.
ok ja wie du sagst will ich mich auch nicht zu lange mit solchen einkäufen aufhalten, dann werd ich mal nach der 2060 und 3060 ausschau halten und dann wohl irgendwann überteuert kaufen müssen. ist halt schon n scheiß Gefühl so viel über der UVP zu zahlen, Geforce sagt einem damit ja es ist deren Meinung nach nur so und soviel wert... uff
 
was ist eure Meinung zu Intel Arc? könnte man sowas abwarten? Preis LEistungs mäßig soll das ja interessant werden

 
Zurück
Oben