Newsmeldung von slashCAM:
Intel hat einen neuen alten CEO Pat Gelsinger und der hat bereits deutlich durchklingen lassen, dass sich Intel nicht von Apple die Prozessor-Butter vom Brot stehlen lass...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Intel relativiert Apples M1 Benchmarks
Antwort von godehart:
Vorher: mac mini 2018 i7 6core 32GB ram RX580 eGPU
An flüssigen 4k Schnitt war nicht mal zu denken, jedenfalls unter Premiere. Davinci lief da schon sehr sehr viel besser.
Jetzt. MBP 13" M1: 4K Schnitt geht viel besser. In Punkto Leistung sehe ich Apple hier sehr viel weiter vorn was Video und Bildbearbeitung angeht. Das entspricht meiner Erfahrung nach einem Monat Praxis. Leider hat das Book ein gravierendes Problem: nur 2 USB-c Anschlüsse. Externes Drive, Display und Netzteil sind da 1 Kabel zu viel. Dazu häufen sich die Berichte, nachdem MBPs gebrickt wurden durch die Verwendung von Netzteilen an Adaptern, selbst bei solchen, die Apple selbst auf seiner Seite verkauft. (Vorläufige Lösung: Netzteil niemals via Adapter sondern immer direkt anschließen)
Quelle M1 Problem:
https://www.youtube.com/watch?v=FQFeVvOk3bo
Antwort von freezer:
Am meisten taugt mir das Intel Testszenario "Particle Divergence Excel Macro":
Visual Basic Excel workload that runs a Monte Carlo simulation of the random 2D motion of a particle.
Also ganz typisches Anwendungsszenario...
Und auch ein paar andere nur aus Intels Sicht nachvollziehbare Benchmarks wie zB Export einer Videosequenz aus Premiere Pro nach h.265 mit Software Encoding...
Oder die Topaz Labs Tools, die noch nicht nativ laufen...
Antwort von acrossthewire:
freezer hat geschrieben:
Also ganz typisches Anwendungsszenario...
Und auch ein paar andere nur aus Intels Sicht nachvollziehbare Benchmarks wie zB Export einer Videosequenz aus Premiere Pro nach h.265 mit Software Encoding...
Oder die Topaz Labs Tools, die noch nicht nativ laufen...
Ja es scheint als pfeife da jemand sehr laut im Wald ;-)
Antwort von teichomad:
Als würde ein eingeschnapptes Gör noch ein letztes beleidigendes Wort in den Raum schmeißen. Als nächstes deaktiviert Intel per Fernsteuerung alle Intel basierten Macs und das Theater-Stück ist perfekt.
Antwort von Rick SSon:
Ich denke das Stichwort hier ist Optimierung.
Solange man sich in einer Apple-optimitierten Softwareblase aufhält, wird der m1 sicherlich immer gleichwertig, oder sogar schneller sein.
Plus die typischen Apple-Features, die man nun eben mögen kann, oder nicht.
Ich denke da greift auch der Vergleich mit der Autoindustrie nach dem WW2 ganz gut, als die Alliierten DTL. die Produktion von großen Motoren verboten haben (ich glaub am Anfang war 4 Zylinder, dann 6 zylinder cap. Irgendwie so) Die deutsche Autoindustrie hat dann einfach mit weniger Zylindern trotzdem sehr leistungsfähige Motoren gebaut, während die Amischlitten alle kräftig und laut geplärrt und zudem noch Sprit ohne Ende gesoffen haben.
In jedem Fall hat Intel sich im letzten Jahrzehnt als Marktführer nicht unbedingt darum bemüht den CPU Markt zu revolutionieren. Daher geschieht ihnen aus meiner Sicht jede Watsche recht ;-)
Antwort von roki100:
godehart hat geschrieben:
Jetzt. MBP 13" M1: 4K Schnitt geht viel besser. In Punkto Leistung sehe ich Apple hier sehr viel weiter vorn was Video und Bildbearbeitung angeht. Das entspricht meiner Erfahrung nach einem Monat Praxis. Leider hat das Book ein gravierendes Problem: nur 2 USB-c Anschlüsse. Externes Drive, Display und Netzteil sind da 1 Kabel zu viel. Dazu häufen sich die Berichte, nachdem MBPs gebrickt wurden durch die Verwendung von Netzteilen an Adaptern, selbst bei solchen, die Apple selbst auf seiner Seite verkauft. (Vorläufige Lösung: Netzteil niemals via Adapter sondern immer direkt anschließen)
Die andere Probleme (bzw. immer noch ein Problem) ist VirtualBox oder andere Virtuelle Maschinen. Diese funktioniert entweder gar nicht, oder nur teilweise...
Antwort von Schleichmichel:
Ja gut, das wird sicherlich auch noch kommen. So alt ist Apple Silicon ja nun noch nicht.
Antwort von Sammy D:
Ich bin sehr zufrieden mit meinen Mini M1. Definitiv schneller als der in die Jahre gekommene MacPro 2013. Der neue MP ist mir zu teuer und wäre auch totaler Overkill. Mal sehen, vielleicht einen iMac mit dem neuen M-Chip, obgleich ich All-in-One-Rechner nicht mag.
Antwort von markusG:
"Sammy D" hat geschrieben:
Der neue MP ist mir zu teuer und wäre auch totaler Overkill. Mal sehen, vielleicht einen iMac mit dem neuen M-Chip, obgleich ich All-in-One-Rechner nicht mag.
Ich warte noch auf den "kleinen" Mac Pro (oder Mini Pro?), ob der was taugt. Allerdings weiß ich nicht ob der rechtzeitig erscheint, brauche eigtl. dringend mal nen Upgrade (mein privater PC ist inzwischen knapp 13 Jahre alt!), und da ist der M1 mit integrierter Grafik und v.a.D. auf 16GB limitierten Arbeits-Speicher leider keine Option :( ist die Frage ob Apple bis dahin nicht wieder veraltet ist, wie es mit dem MP 2019 geschehen ist. Aber da hoffe ich auf Apples Ingenieurskunst :) Bis dahin sollte es dann auch mit den ganzen Drittanbietern fluppen...
Antwort von Sammy D:
markusG hat geschrieben:
"Sammy D" hat geschrieben:
Der neue MP ist mir zu teuer und wäre auch totaler Overkill. Mal sehen, vielleicht einen iMac mit dem neuen M-Chip, obgleich ich All-in-One-Rechner nicht mag.
Ich warte noch auf den "kleinen" Mac Pro (oder Mini Pro?), ob der was taugt. Allerdings weiß ich nicht ob der rechtzeitig erscheint, brauche eigtl. dringend mal nen Upgrade (mein privater PC ist inzwischen knapp 13 Jahre alt!), und da ist der M1 mit integrierter Grafik und v.a.D. auf 16GB limitierten Arbeits-Speicher leider keine Option :( ist die Frage ob Apple bis dahin nicht wieder veraltet ist, wie es mit dem MP 2019 geschehen ist. Aber da hoffe ich auf Apples Ingenieurskunst :) Bis dahin sollte es dann auch mit den ganzen Drittanbietern fluppen...
Den Mini habe ich mir nur für mein Streaming-Setup gekauft, da meine alten Minis nur noch bis High Sierra und Mojave updaten können. Für zukünftige BMD-Software wird dann bald Schluss sein. Für knapp 1000 Euro ein Steal!
Bisher tuts auch der alte MacPro für meine Zwecke. Allerdings wird der irgendwann auch mal seinen Geist aufgeben (hat fast 30000 Betriebsstunden). Da möchte ich auch wieder einen potenten Rechner mit vielen Jahren Nutzungsmöglichkeit. 5000-6000 ist allerdings meine Schmerzgrenze.
Der Mini könnte als Brücke einspringen. Der schafft einfachen Schnitt in 4K-6K und Grading locker. Bei komplexeren Sachen in Fusion geht er allerdings schnell in die Knie.
So ein Mitteldingens-Desktop würde ich auch befürworten. Aber da warte ich seit Jahren vergebens.
Umsteigen auf Windows möchte ich nicht.
Antwort von markusG:
"Sammy D" hat geschrieben:
So ein Mitteldingens-Desktop würde ich auch befürworten. Aber da warte ich seit Jahren vergebens.
Ist ja angeblich geplant. Es wurde auch was von G4 Cube alike gemunkelt. Wäre interessant ob da dann noch was erweiterbar sein wird oder ob man dafür zum regulären Mac Pro greifen muss, der wohl auch erstmal auf Intel bleibt. Angeblich. Sind ja alles nur Gerüchte. Mal schauen in welcher Form sich das alles materialisieren wird.
Antwort von dnalor:
godehart hat geschrieben:
Vorher: mac mini 2018 i7 6core 32GB ram RX580 eGPU
An flüssigen 4k Schnitt war nicht mal zu denken, jedenfalls unter Premiere. Davinci lief da schon sehr sehr viel besser.
Jetzt. MBP 13" M1: 4K Schnitt geht viel besser. In Punkto Leistung sehe ich Apple hier sehr viel weiter vorn was Video und Bildbearbeitung angeht. Das entspricht meiner Erfahrung nach einem Monat Praxis. Leider hat das Book ein gravierendes Problem: nur 2 USB-c Anschlüsse. Externes Drive, Display und Netzteil sind da 1 Kabel zu viel. Dazu häufen sich die Berichte, nachdem MBPs gebrickt wurden durch die Verwendung von Netzteilen an Adaptern, selbst bei solchen, die Apple selbst auf seiner Seite verkauft. (Vorläufige Lösung: Netzteil niemals via Adapter sondern immer direkt anschließen)
Quelle M1 Problem: https://www.youtube.com/watch?v=FQFeVvOk3bo
Ich hab mir den hier für mein M1 Macbook Pro gekauft, funktioniert seit Dezember problemlos und bringt drei zusätzliche Thunderbolt-Ports:
https://eshop.macsales.com/shop/owc-thunderbolt-hub
Antwort von godehart:
dnalor hat geschrieben:
godehart hat geschrieben:
Problem: nur 2 USB-c Anschlüsse. Externes Drive, Display und Netzteil sind da 1 Kabel zu viel. Dazu häufen sich die Berichte, nachdem MBPs gebrickt wurden durch die Verwendung von Netzteilen an Adaptern, selbst bei solchen, die Apple selbst auf seiner Seite verkauft. (Vorläufige Lösung: Netzteil niemals via Adapter sondern immer direkt anschließen)
Quelle M1 Problem: https://www.youtube.com/watch?v=FQFeVvOk3bo
Ich hab mir den hier für mein M1 Macbook Pro gekauft, funktioniert seit Dezember problemlos und bringt drei zusätzliche Thunderbolt-Ports:
https://eshop.macsales.com/shop/owc-thunderbolt-hub
Cooles Teil, definitiv eine Lösung aber viel zu teuer. Da schau ich lieber nach einem Adapter/docking station mit integriertem ssd slot. Das ist günstiger und bringt mich auch weiter.
Antwort von RedWineMogul:
godehart hat geschrieben:
Cooles Teil, definitiv eine Lösung aber viel zu teuer. Da schau ich lieber nach einem Adapter/docking station mit integriertem ssd slot. Das ist günstiger und bringt mich auch weiter.
Ich hab mir den für den Mac mini M1 geholt:
https://de.aliexpress.com/item/10050018 ... hweb201603_
War in 2 Wochen aus China da.
Antwort von rush:
Eigentlich ein Trauerspiel das man überhaupt immer häufiger solch extra Adapterlösungen benötigt um halbwegs gängige Anschlüsse zu erhalten.
Die Hersteller sparen sich einen zurecht und der Kunde steht am Ende doof da und muss wieder nachrüsten um die Tools halbwegs sinnvoll mit entsprechender Peripherie nutzen zu können.
Ansonsten ist der M1 auch im Mini-Gewand ja weiterhin 'ne schöne und flotte Kiste - aber Kompaktheit allein ist eben nicht immer alles. Beim Macbook kann ich über sowas ja noch im Ansatz hinwegsehen (auch wenn es mich selbst da iwie nervt), aber bei einem System das schon eher für den stationären Einsatz gedacht ist empfinde ich diese Wegrationalisierung von Ports klar als den falschen Weg.
Antwort von Sammy D:
rush hat geschrieben:
Eigentlich ein Trauerspiel das man überhaupt immer häufiger solch extra Adapterlösungen benötigt um halbwegs gängige Anschlüsse zu erhalten.
Die Hersteller sparen sich einen zurecht und der Kunde steht am Ende doof da und muss wieder nachrüsten um die Tools halbwegs sinnvoll mit entsprechender Peripherie nutzen zu können.
Ansonsten ist der M1 auch im Mini-Gewand ja weiterhin 'ne schöne und flotte Kiste - aber Kompaktheit allein ist eben nicht immer alles. Beim Macbook kann ich über sowas ja noch im Ansatz hinwegsehen (auch wenn es mich selbst da iwie nervt), aber bei einem System das schon eher für den stationären Einsatz gedacht ist empfinde ich diese Wegrationalisierung von Ports klar als den falschen Weg.
Also ich kann an den Mini über die vorhandenen Anschlüsse folgende Geräte anschließen: zwei RAID-Arrays, zwei Monitore, ein Audiointerface, eine Dockingstation, einen Card Reader, einen eSATA-Adapter (alles an einem Thunderboltport durch Daisy Chaining), am anderen Thunderboltport ist eine Videokarte. An den USB-Ports: zwei USB-Hubs. An den Hubs hängen weitere Geräte. Und das Netzwerk noch. Bis auf die Monitore stehen alle Geräte in einem Rack, also sehe ich nur die Kabel, welche aus dem Mac kommen.
Peripherie ist fest, Rechner kann ich jederzeit austauschen.
Antwort von rush:
Workaround halt und zig Geräte über Hubs... geht und kann man machen wenn man sich darauf einlässt und das alles so dimensioniert.
Aber so 'ne SD-Karte aus der Kamera einfach mal direkt in den Rechner stecken zu können hat doch irgendwie auch was - besonders am mobilen Gerät ohne Kabel und Reader.
Wurscht - wollte dahingehend auch kein Diskussion ins Rollen bringen, hier soll es ja primär im die Leistung verglichen mit Intel gehen.
Oder kann das sogar einer Gründe sein das man 2 TB Ports wegrationalisiert hat?
Antwort von Sammy D:
rush hat geschrieben:
...
Wurscht - wollte dahingehend auch kein Diskussion ins Rollen bringen, hier soll es ja primär im die Leistung verglichen mit Intel gehen.
Oder kann das sogar einer Gründe sein das man 2 TB Ports wegrationalisiert hat?
Der M1 hat auf jedem TB-Port einen Bus. Der Intel hat ebenfalls zwei Buses, wovon sich aber zwei Ports einen teilen.
Bei Thunderbolt 4 ist es aber erstmals möglich einen Hub zu benutzen. Sowas gabs bis dato nicht.
Und viele TB-Peripherie-Geräte haben eh zwei Ports zum Durchschleifen.
Antwort von mash_gh4:
der wettkampf zw. intel, amd u.. arm nimmt sich vergleichsweise langweilig aus, wenn man auch noch risc-v in die betrachtungen miteinbezieht, wo gegenwärtig deutlich mehr innovation und forschung passiert:
https://techmonitor.ai/hardware/silicon ... pen-source
https://www.zdnet.com/article/what-risc ... ould-care/
dabei geht's weniger alleine nur um technische vorzüge, sondern eben auch um vorteile, die sich daraus ergeben, nicht alleine nur an einen hersteller bzw. chip-designer gebunden zu sein, sondern sich viel freier aus dem pool entsprechender aktueller forschung und entwicklungsbemühungen bedienen zu können.
ähnlich wie im falle von arm spielt sich dieses kräftemessen weniger auf traditionellen desktop PCs ab, sondern vielmehr im verborgenen auf industrieanwendungen, mobilen geräten und datacenteranwendungen mit hoher packungsdichte und energieeffizienz ab.
ich bastle hier gerade mit einem derartigen €3,- all-in-one
imac herum, der trotz seiner 32K RAM und 128K integriertem flashspeicher + SDcard und 108MHz takt sogar flüssig videoclips wiederzugeben vermag:
im moment wirkt die verwendung von risc-v prozessoren und microcontroller natürlich noch eher wie eine spielerei, weil es jede menge genauso günstige arm basierende alternativen gibt. beim näheren hinschauen wird einem dann aber doch schnell klar, welch mächtige konkurrenz sich da langsam zusammenbraut.
spannend ist ganze auch deshalb, weil es sehr stark auch in teilen der welt vorangetrieben wird, denen bisher nur eine eher untergeordnete rolle im rahmen der fertigung zugestanden wurde. plötzlich ist man nun damit konfrontiert, dass das geeignetste bzw. am besten unterstützte realtime betriebssystem (konkret:
rt-thread) nicht mehr ganz selbstverständlich durchgängig in englisch dokumentiert ist, sondern kommentare im quellcode, begleitendes info-material und technische diskusion oft nur mehr mühsam via google translate u. co. aus dem chinesischen erschlossen werden können...
Antwort von patfish:
Für mich ist der M1 aktuell nur ein für Apple-Software gut optimiertes Spielzeug, welches den bekannten und immer schon sehr guten mobilen Prozessoren von Apple für Tablets usw. sehr ähnlich ist :-) In diesem Bereich traue ich Apple auch extrem viel zu. Spannend wird es für mich aber erst dann, wenn es um Workstation Prozessoren gehen wird, wo Apple eben noch überhaupt keine Erfahrung mitbringt. Ich bezweifle sehr stark, dass Apple AMD in diesem Bereich schon in der nächsten Generation das Wasser reichen wird können aber ich freue mich über den frischen Wind in diesem Bereich.
Antwort von Frank Glencairn:
patfish hat geschrieben:
Ich bezweifle sehr stark, dass Apple AMD in diesem Bereich schon in der nächsten Generation das Wasser reichen wird können aber ich freue mich über den frischen Wind in diesem Bereich.
Zumal, der Aspekt mit dem Apple punkten kann - der Stromverbrauch - in dem Bereich überhaupt keine Rolle spielt.
Antwort von freezer:
"Frank Glencairn" hat geschrieben:
patfish hat geschrieben:
Ich bezweifle sehr stark, dass Apple AMD in diesem Bereich schon in der nächsten Generation das Wasser reichen wird können aber ich freue mich über den frischen Wind in diesem Bereich.
Zumal, der Aspekt mit dem Apple punkten kann - der Stromverbrauch - in dem Bereich überhaupt keine Rolle spielt.
Ist halt die Frage, was möglich sein wird, wenn Apple die künftigen MX's von der thermischen Leine lassen kann...
Antwort von cantsin:
"Frank Glencairn" hat geschrieben:
Zumal, der Aspekt mit dem Apple punkten kann - der Stromverbrauch - in dem Bereich überhaupt keine Rolle spielt.
Gerade da wäre ich mir nicht so sicher. Denn geringer Stromverbrauch pro Chip bedeutet ja, dass man Multiprozessor-Workstations mit einer massiven Zahl von parallelen CPUs bauen kann und trotzdem nicht mehr als ein gängiges PC-Netzteil und gängige PC-Kühlung braucht.
Antwort von patfish:
"Frank Glencairn" hat geschrieben:
patfish hat geschrieben:
Ich bezweifle sehr stark, dass Apple AMD in diesem Bereich schon in der nächsten Generation das Wasser reichen wird können aber ich freue mich über den frischen Wind in diesem Bereich.
Zumal, der Aspekt mit dem Apple punkten kann - der Stromverbrauch - in dem Bereich überhaupt keine Rolle spielt.
Das würde ich so nicht sagen :-) ... Stromverbrauch und Abwärme spielt überall eine große Rolle
Antwort von markusG:
ARM hat ja gerade im Serverbereich gezeigt, dass sowohl Leistung als auch Effizienz im Einklang möglich sind. Allerdings muss das Apple auch erstmal liefern. Und bis es soweit ist, ist hoffentlich alles wichtige portiert.
Antwort von Frank Glencairn:
patfish hat geschrieben:
Stromverbrauch und Abwärme spielt überall eine große Rolle
Nicht bei einer Workstation. Was zieht die im schlimmsten Fall - 1000 Watt?
Was kostet eine KW/h? Um die 30 Cent.
Und was berechnest du dem Kunden pro Stunde?
Wen soll das also jucken? Selbst wenn es das 10fache wäre ist das immer noch Peanuts.
Und was die Kühlung betrifft, seit wann ist es ein Problem eine GPU/CPU zu kühlen?
Das haben wir seit Jahrzehnten im Griff.
Antwort von Drushba:
Meine Graka ist vor ein paar Tagen abgeraucht, hab sie ausgebaut und Resolve lässt sich seither nicht mehr starten (Warnfenster weil keine metalfähige GPU, die onboard-Graka funzt nicht). Es ist ein Hackintosh mit 9900K und 64 GB RAM. Diese Specs reichen also nicht mal für den Basisbetrieb aus, während ein popliges Macbook Air M1 mit 7 Kernen und 8GB immer noch ziemlich resolvefähig ist. Avid funktioniert zwar immer noch, sogar mit 10Bit HEVC, aber nur mit einer Spur und flüssig ist was anderes. Kann sein, dass es nur an der Software liegt, aber trotzdem seltsam für Intel.))
Antwort von markusG:
Drushba hat geschrieben:
Meine Graka ist vor ein paar Tagen abgeraucht, hab sie ausgebaut und Resolve lässt sich seither nicht mehr starten (Warnfenster weil keine metalfähige GPU, die onboard-Graka funzt nicht). Es ist ein Hackintosh mit 9900K und 64 GB RAM. Diese Specs reichen also nicht mal für den Basisbetrieb aus, während ein popliges Macbook Air M1 mit 7 Kernen und 8GB immer noch ziemlich resolvefähig ist. Avid funktioniert zwar immer noch, sogar mit 10Bit HEVC, aber nur mit einer Spur und flüssig ist was anderes. Kann sein, dass es nur an der Software liegt, aber trotzdem seltsam für Intel.))
Hab die Reifen von meinem Auto kaputt gemacht und bin jetzt mit dem Fahrrad schneller beim Bäcker :P
Es kommt demnächst ein Aldi-PC (!) wo ich schwach werden könnte^^ der hätte bei gleichem Preis ggü. dem M1 Mini dann +16GB Ram und +8GB RTX 3070, was ihn ja sicher gerade für Resolve & Fusion attraktiver machen dürfte (je nach Format und Arbeitsumfang...); leider ist dann wegen der Graka kein Hackintosh möglich weswegen ich noch bissl unschlüssig bin...andererseits ist ja die Liefersituation gerade echt kacke überall (weswegen eine 5700XT nicht so wirklich lohnt). Und auf einen möglichen Mac Pro Mini zu warten...wäre die Frage was er überhaupt liefert, zu welchem Preis und v.a.D. wann...
Antwort von Drushba:
markusG hat geschrieben:
Hab die Reifen von meinem Auto kaputt gemacht und bin jetzt mit dem Fahrrad schneller beim Bäcker :P
Na der Vergleich hinkt wohl.) Haben immerhin beide interne Grakas. Wenn dann so: Habe den Reservereifen von meinem Auto kaputt gemacht und bin jetzt mit dem Mofa schneller auf der Autobahn. ;-)
Antwort von markusG:
Drushba hat geschrieben:
Na der Vergleich hinkt wohl.) Haben immerhin beide interne Grakas.
Natürlich hinkt er: der 9900k ist knapp 3 Jahre alt, und du hast geschrieben dass die iGPU nicht erkannt wird, sprich: es wird alles über die CPU gerechnet. Es sind also alle Reifen kaputt (auch Reserverrad) und es wird auf den Felgen gefahren ;) Von mir aus auch auf der Autobahn :P
Antwort von Drushba:
markusG hat geschrieben:
Drushba hat geschrieben:
Na der Vergleich hinkt wohl.) Haben immerhin beide interne Grakas.
Natürlich hinkt er: der 9900k ist knapp 3 Jahre alt, und du hast geschrieben dass die iGPU nicht erkannt wird, sprich: es wird alles über die CPU gerechnet. Es sind also alle Reifen kaputt (auch Reserverrad) und es wird auf den Felgen gefahren ;) Von mir aus auch auf der Autobahn :P
Nein, meine Graka ist abgeraucht, also habe ich sie ausgebaut. Die Interne wird nach wie vor erkannt, reicht aber Resolve nicht aus, weil Resolve auf Metal besteht. Die Nettorechenleistung der 8 Kerne ist wohl ähnlich. Fahre mit einem M1 also mit Metal-Felgen auf Schienen. :-)
Antwort von markusG:
Ahhhh verstehe :) dachte die Intel-GPU wäre eigentlich metalfähig. Schade.
Antwort von motiongroup:
Ich weis ich weis, wir sind hier in einem Videoforum und trotzdem muss ich über Intels Aussage gelinde gesagt schmunzeln..
sie haben schon ab den ersten Ipads/iphones der Version A12 aufwärts gewusst das ihnen die Haut am Ar*** nicht zusammen geht und sie in der aktuellen Klasse keinen Meter mehr machen werden und das auch nicht gegen AMD.
wobei, es sei gesagt, dass es auch zum größten Teil an den Softwareentwicklern liegt ihre Produkte anzupassen.
Wenn ich aktuell mir meinem Air DREI Tage im Mischbetrieb durch den Tag komme, gibt es bei Intel nichts was dem Paroli bieten könnte... Das ist ein 0815 Laptop und soll keine WKST ersetzten, eben sowenig wie der MacMini punkt..
Wenn ich die MW Debatte zum Verbrauch lese, kann ich nur den Kopf schütteln sorrry...
Wenn der aktuell aufgetauchte M1X nun wieder alles über den Haufen wirft, werden die ewig gleichen flachen Entgegnungen und Thesen aufgestellt werden wie immer.. Wayne kümmerts
Ich gebe euch aber noch meinen Eindruck mit auf den Weg... mir ist das Ipad Pro 2020 mit Keyboard fast lieber für den Teil der Arbeit die ich damit zu erledigen habe.. ist der bessere Allrounder und erledigt sogar die Tabletaufgaben am Air zu 100% und das Wacom geht an Linux
Antwort von roki100:
Das beste an Apple Intel ist immer noch HAKINTOSH. Ich habe gestern auf BigSur aktualisiert, zwei zusätzliche und unkomplizierte schritte und schon ist BigSur drauf...läuft alles super. :)
Mit M1/2/3... können wir das bald vergessen.
Antwort von Darth Schneider:
@ roki
Für mich ist so ein Hack Apfel wahrscheinlich zu kompliziert....
Wie läuft denn eigentlich jetzt Resolve mit so einem neuen Mac Book Air, dem kleinem Mac Book Pro, oder dem Mac Mini, wirklich, zusammen mit BRaw und 4K ?
Die Meinungen scheinen auseinander zu gehen.
Und wieviel Geld muss man in die Hand nehmen, auch betreffend RAM ?
Nur Resolve, zum schneiden und ein wenig Colorgrading mit Fuison mache ich nicht viel...höchstens Green/Blue Screen mit ein paar Layers, mit Raumschiffen und ein paar ganz kleine Explosionen;))))
@Slashcam
Das wäre doch ein toller SlashCAM Computer/Software Test...
2 Teams...
Neue Apple VS Intel Prozessoren im:
Resolve, mit M1 vs. Premiere mit Intel, Extreme SF Filmmaking Test...;))
Wer ist schneller ???
Hauptrolle, euer Modell des Hauses, endlich mal mit einem Lichtschwert...
Spass beiseite, ein Vergleich oder Test, spezifisch mit den wichtigsten Schnittprogrammen und bestimmten Codecs wäre vor einer Rechner Kaufentscheidung hilfreich.
Gruss Boris
Antwort von markusG:
motiongroup hat geschrieben:
Wenn ich aktuell mir meinem Air DREI Tage im Mischbetrieb durch den Tag komme, gibt es bei Intel nichts was dem Paroli bieten könnte...
Abgesehen von Menschen die ständig unterwegs damit arbeiten müssen: wen tangiert das eigentlich? IdR hat man ja irgendwo ne Steckdose und kann zumindest über Nacht nachladen. Und dass ein Laptop nen Tag durchhält ist ja nicht erst seit dem M1 so...mir fehlt bei meinem Laptop eigtl. nix, mir würde bei z.B. nem MBP / MBA der SD Slot fehlen, aber das scheint sich ja mit dem M1X zu ändern. Aber solange mein Laptop (und Tablet) nicht hops gehen wüsste ich nicht was da
für den Alltag fehlt. Okay beim Laptop hätte ich gerne 16:10...
motiongroup hat geschrieben:
Das ist ein 0815 Laptop und soll keine WKST ersetzten, eben sowenig wie der MacMini punkt...
Das Ding ist dass da halt mal wieder ne riesen Lücke klafft. Der 2019er MP ist gnadenlos overengineered und dadurch für "unsere" zwecke einfach ungeeignet, und nicht jeder möchte einen AIO (ich möchte inzwischen nie wieder vom 21:9 weg). Beim Intel-Mini wäre man ja noch halbwegs weggekommen mit eGPU + ausreichend RAM, Ports usw.
roki100 hat geschrieben:
Mit M1/2/3... können wir das bald vergessen.
Angeblich soll der MP noch ein Intel-Refresh erhalten bevor es Richtung Apple Silicon geht. Falls sich das bewahrheitet gäbe es ja nochmal eine Schonfrist...
"Darth Schneider" hat geschrieben:
Wie läuft denn eigentlich jetzt Resolve mit so einem neuen Mac Book Air, dem kleinem Mac Book Pro, oder dem Mac Mini, wirklich, zusammen mit BRaw und 4K ?
Die Meinungen scheinen auseinander zu gehen.
Ja bin neulich auf das Video gestoßen, wo es iirc das Fazit war, dass alles geschmeidig läuft was beschleunigt wird (H265 z.B.), es bei GPU lastigen Sachen aber Einschränkungen gibt (u.a. beim Denoising), und man auch mit 8GB RAM nicht weit kommt usw.:
https://www.youtube.com/watch?v=e5Nb8b1 ... tedSystems
Aber in so einem Usecase frage ich mich eh ob Resolve da die sinnvollste Plattform ist vs. FCPX+Motion...Ausserdem ist es ja auch noch mal ein Unterschied ob es
prinzipiell läuft oder
gut läuft...
Antwort von motiongroup:
Abgesehen von Menschen die ständig unterwegs damit arbeiten müssen: wen tangiert das eigentlich?
mich zum Beispiel ich haue mir das Teil in den Radrucksack und bin 48h unterwegs ohne darüber nachdenken zu müssen ob ich's Ladegerät mit habe.. gilt im Übrigen auch für das ipad Pro... dafür tangiert mich das Fehlen der SD Slots überhaupt nicht.. ich brauche ihn einfach nicht..
Loch klafft auch keines, warum auch... es wird von der M1 Möhre bis zu Intelmöhre alles abgedeckt was da Herz und das Börserl her gibt ;)
na klar wünscht ihr euch alle schon den versprochenen iMac und Mac Pro Ersatz aber dahin fließen noch ein paar Liter Wasser die Donau runter... Apple hat die Zeitfenster sogar beschrieben... bis Ende 2022 habt ihr alle Eure Gelüste befriedigt...
also abwarten und nen Becher Eierlikör für die Seele tanken..;)
ach ja hier noch die Heise Apple Nerd's im Talk..:))))
https://www.youtube.com/watch?v=i0HL4q3_eWI
übrigens hat Chrome grad MACOS überholt in den Nutzerzahlen.. :)) die Welt steht am Abgrund..:))
https://www.heise.de/news/Aufsteiger-Ch ... 58717.html
eventuell kommt ja Resolve für Chrome heraus und alles wird gut..
Antwort von markusG:
motiongroup hat geschrieben:
mich zum Beispiel ich haue mir das Teil in den Radrucksack und bin 48h unterwegs ohne darüber nachdenken zu müssen ob ich's Ladegerät mit habe..
Hmm braucht man nen extra Ladegerät wenn es über USB C geht? Klar bei lightning ist es nervig... Hab noch das 1st green iPad pro, da ist schon der Weirdo was das angeht. Dann wiederum gibt es ja auch die Universalkabel...
motiongroup hat geschrieben:
Loch klafft auch keines, warum auch... es wird von der M1 Möhre bis zu Intelmöhre alles abgedeckt was da Herz und das Börserl her gibt ;)
Naja es fehlt ja immer noch der Mac Pro Mini. Der normale Pro war so wie er derzeit ist dead in arrival, zumindest für 90% der Einsatzzwecke, da wäre mal ne Kurskorrektur nicht schlecht. Und der Intel Mac Mini ist einfach zu langsam (gnadenlos veraltet). Es klafft also zumindest im Pro Sektor ein dickes Loch (das mMn tapfer vom iMac gedeckt wurde).
Aber andere Hersteller haben auch schöne Maschinen, daher fand ich den Einwurf mit dem Hackintosh gar nicht so verkehrt.
Antwort von Darth Schneider:
Der Mac Pro Mini ?
Ich denke nicht das Apple den herausbringt, eher ein Update des iMac Pro und den Mac Mini haben wir ja schon, das stärkste Model kostet ja schon irgend fast 2000€.
Also das wäre dann ja dein Mac Pro Mini...;)
Und den Mac Pro gibt es auch schon, mehr Mac Book Pros mit neuen Prozessen werden folgen, also fehlt da eigentlich bei Apple gar kein Pro Rechner mehr im Sortiment.
Gruss Boris
Antwort von markusG:
"Darth Schneider" hat geschrieben:
Der Mac Pro Mini ?
Das ist ja natürlich nicht die offizielle Bezeichnung, aber es gibt ja entsprechende Gerüchte :
https://www.maclife.de/news/neuer-mac-p ... 18365.html
Das ganze wäre auch mMn weniger dramatisch, wenn der neue Mini die Möglichkeit einer eGPU und und mehr RAM bekommen hätte. So ist und bleibt es ein Einstiegsmodell, und zum Pro ist der Unterschied zu groß. Und ein iMac ist eben ein AIO...
Es fehlt also was, siehe Cube oben. Ob Apple das bedient wird sich zeigen müssen. Der neue Pro war jedenfalls vielen zu teuer für das was er am Ende tatsächlich leistet. Da hat sich Apple mit Xeon keinen Gefallen getan. Und ob Apple sich die blöße gibt mit einem Umstieg auf Apple Silicon das gleiche Modell bei besserer Leistung günstiger zu machen... Widerspricht den Trend der bisherigen Generationen an Mac Pros. Da wäre ein Pro Mini (oder wie er auch heißen mag) logischer.
Antwort von motiongroup:
das mMn tapfer vom iMac gedeckt wurde).
Nicht nur deiner Meinung nach, dass ist das Modell der ersten Wahl gewesen und auch aktuell noch jung auch der Preis war resp. Ist nicht überzogen..
Antwort von Darth Schneider:
Ich hatte früher mal den Cube, cooles Teil. Aber damals würde auch unter anderem bemängelt das da zu wenig Platz für Erweiterungen vorhanden waren....
Ich denke so ein Mac Pro ist in einem grossen Tower doch auf jeden Fall besser aufgehoben.
Was ich finde was von Apple definitiv fehlt, ist ein schöner Apfel Monitor, der nicht gleich 5000€, sondern ev. 1000 € kostet, oder besser noch 500€, preislich halt passend zum Mac Mini.
Früher hatte Apple sowas im Programm...Heute nur noch das Sau teure High End Teil, das sich doch eh fast niemand leisten will, vor allem noch mit dem 1000€ Standfuss...;)))
Ich meine, wenn man sich einen iMac kaufen muss, zusammen mit dem Mac Mini, wenn man keinen 5000€ Apple Monitor dazu will, aber trotzdem was aus dem selben Hause vorziehen möchte, ist das doch sehr einschränkend und nicht nur ein wenig bescheuert...
Jeder grosse Computer Hersteller hat mehrere zu den Rechner passende Monitore im Programm, nur Apple nicht...
Steve Jobs sollte als Geist dem leitenden CEO mal Beine machen, ich bin mir sicher der wäre womöglich auch meiner Meinung..;)
Gruss Boris
Antwort von motiongroup:
Ich meine, wenn man sich einen iMac kaufen muss wenn man einen günstigen Apple Monitor möchte, ist doch einschränkend und nicht nur ein wenig bescheuert...
Erstens gibts dafür den Mini zweitens ist es doch in 90 % der Fälle so, dass die Kisten niemals erweitert oder aufgerüstet werden da meist nach Ablauf der Laufzeiten bei den Anwendern komplett neue Geräte gekauft werden..
In den wenigsten Fällen werden die Gehäuse entkernt und mit komplett neuen Innereien aufgebaut.. nicht hier und auch nicht woanders.. ein iMac steht komplett da und braucht was genau? Das ist in etwa genauso geil wie der der nMP 2013.. der Rest steht im Raum Nebenan.. wenn dem nicht so wäre, wären sie schon lange vom Markt verschwunden und nicht umsonst hat auch Microsoft das Studio dem iMac nachempfunden und sogar noch erweitert um Touch und Tablet nur leider nicht weiter entwickelt und mit aktueller Hardware angepasst-... die ganze Geschichte würde von den Diskussionsplattformen verschwinden wenn MS auf ARM Based SOC umstellen würden und gut wärs..
Zurück zum iMac und der angeblichen Eingeschränkt- und Bescheuertheit ... ist es nicht viel mehr Ansatz sich das zu kaufen was man benötigt?... hier gibt es keinen einzigen Tower.. nur noch AllIn, Tablet oder Nettops..
Ich geb’s zu ich bin Bescheuert, fängt beim iPad an geht über das Air zum Linux NUC.. ich habe echt einen an der Waffel ;)
Antwort von Darth Schneider:
Ich denke du hast mich falsch verstanden, oder ich mich unklar ausgedrückt.
Die iMacs sind sehr toll und komplett.
Das iPad finde ich ist eh das innovativste Gerät was Apple im Programm hat (und sich eindeutig bei Star Trek The next Generation abgeguckt hat) ;)))
Der Mac Mini ist auch toll, aber irgendwie überhaupt nicht komplett zu haben, nicht von Apple, weil es von Apple überhaupt keinen passenden Monitor dafür gibt.
Jetzt stell dir mal vor du kaufst dir irgend einen Dell einen HP, oder was auch immer für ein PC, und du müsstest dir dazu einen Apple Monitor kaufen weil es von HP und Dell keinen gäbe....Das meine ich, cooles Mac Mini Konzept, aber überhaupt nicht zu Ende gedacht. Das, nur das, finde ich etwas bescheuert.
Gruss Boris
Antwort von markusG:
motiongroup hat geschrieben:
das mMn tapfer vom iMac gedeckt wurde).
Nicht nur deiner Meinung nach, dass ist das Modell der ersten Wahl gewesen und auch aktuell noch jung auch der Preis war resp. Ist nicht überzogen..
Ja es wird wahrscheinlich auf den iMac hinauslaufen...ist die Frage wie sich das mit dedizierten GPUs verträgt. Da muss schon deutlich mehr kommen als beim M1, sonst kann man es sich auch sparen. Aber vermutlich wird es in 2 Jahren sowieso alles hinfällig sein. Das "Problem" ist der Weg dahin...
motiongroup hat geschrieben:
Erstens gibts dafür den Mini zweitens ist es doch in 90 % der Fälle so, dass die Kisten niemals erweitert oder aufgerüstet werden da meist nach Ablauf der Laufzeiten bei den Anwendern komplett neue Geräte gekauft werden..
Das wäre ja valide wenn es wie beim MBP jährlich einen Refresh gäbe. Aber der MP war schon bei Release veraltet, wegen dieser verdammten Xeon-Plattform. Hier hätte Apple ja nachregeln können, haben sie aber nicht. Oder genauer: noch nicht ;)
Ich hatte früher mal den Cube, cooles Teil. Aber damals würde auch unter anderem bemängelt das da zu wenig Platz für Erweiterungen vorhanden waren....
Ich denke so ein Mac Pro ist in einem grossen Tower doch auf jeden Fall besser aufgehoben.
Ist die große Frage was da kommt. Im Grunde war ja schon der Trashcan-MP sowas in der Richtung, nur leider eine Einbahnstraße. Weswegen ihn viele übersprungen haben und sogar heute noch (!) die original Käsereibe nutzen. Weiß nicht wieso sich das Apple (oder deren Kunden) sich das nochmal antun sollten mit einer quasi Verplombung...
Btw...die MacPro Preisentwicklung:
2006: 2500$
2013: 3000$
2019: 6000$
Also ich sehe da ne klaffende Lücke....
Was ich finde was von Apple definitiv fehlt, ist ein schöner Apfel Monitor
Wofür? Zum Posen? Dafür würde ein Budget-Modell doch gar nicht reichen :P Zum Arbeiten gibt es ja genug Auswahl mit Thunderbolt...nebst den von Apple damals beworbenen 5k LG...
Antwort von motiongroup:
Aber geh Darth gar nicht, darum habe ich auch ein Schmeile gesetzt..:)
Jetzt aktuell so Ende März werden die iMacs kommen oder vorgestellt.. also Marcus warte noch ein wenig..
Hier dreht sich’s in der Hauptsache um Adobe... also nicht überbewerten, die sind am M1 weit abgeschlagen..
https://www.cnet.com/news/a-pro-photogr ... CAD590a51e
Vielleicht ist das für dich erfrischend informativ was ich mir zwar nicht vorstellen kann aber trotzdem
https://www.apfeltalk.de/magazin/apfelt ... -live-290/
Antwort von markusG:
motiongroup hat geschrieben:
Jetzt aktuell so Ende März werden die iMacs kommen oder vorgestellt.. also Marcus warte noch ein wenig..
Ja ich bin da auf jeden Fall mal gespannt. Da viele Komponenten im PC Bereich ja derzeit eh wenig verfügbar - oder völlig überteuert - sind, und ich auch ne Art Notfalllösung habe werde ich das wohl auch abwarten können. Trotzdem habe ich die Hackintosh-Variante immer im Hinterkopf, da ich nicht immer mit Apples Vorstellung einverstanden war was man denn so braucht...
motiongroup hat geschrieben:
Vielleicht ist das für dich erfrischend informativ was ich mir zwar nicht vorstellen kann aber trotzdem
https://www.apfeltalk.de/magazin/apfelt ... -live-290/
Danke :) Scahu ich mir auf jeden Fall an (gibt ja hoffentlich ne Aufzeichnung...). Primär interessiert mich ja eigentlich Davinci, da ich von Adobe weg möchte, und mich auf eine Insellösung wie FCPX nicht verlassen möchte. Bin da wohl auch bissl FCP7 + Color gebrannt :'(
Das gleiche gilt dann übrigens auch z.B. für Affinity, was ich derzeit mal ausprobiere, und auch z.B. Capture One (wegen Fuji)...
Antwort von motiongroup:
Vielleicht ist das für dich erfrischend informativ was ich mir zwar nicht vorstellen kann aber trotzdem
Nö, dass war wohl nix für uns... a liebe Plauderei was aber zu erwarten war..
Schorri für nix..
Antwort von markusG:
Ja war schon drollig. Aber was auch wieder Thema war (zumindest in nem Nebensatz) - dass DaVinci auf dem Mac besser (oder zumindest stabiler) läuft als unter Windows. Das war mMn das einzige "learning" für mich, dem ich mal nachgehen wollte.
Klar ist jetzt nicht das einzige Kriterium. Aber es beißt sich noch mit der Binsenweisheit dass man mit Cuda (bzw Optix) besser aufgestellt ist.
Falls da jmd aus dem Nähkästchen plaudern möchte - ich wäre sehr interessiert 😊
Antwort von motiongroup:
Da kann ich dir leider nicht helfen Markus.. Resolve gibt es aufgrund der für NULL Euro Preisgebarung nicht mehr auf meinen Rechnern..
Antwort von rush:
motiongroup hat geschrieben:
Resolve gibt es aufgrund der für NULL Euro Preisgebarung nicht mehr auf meinen Rechnern..
Kannst Du das erläutern?
Du nutzt doch gewiss auch Apples oder sonstige Software die Dir nicht extra berechnet wird (Freeware, Shareware, Donationware...). Sich "kostenlos" nutzbarer Software komplett zu verweigern erklärt sich mir nicht so ganz - daher würde mich Deine Erklärung tatsächlich interessieren.
Antwort von motiongroup:
Eigentlich nicht alle Tools die hier laufen kosten etwas.. und die OS relevanten Tools die von Apple bereitgestellt werden wie auch Xcode brauchen für die Lizenz sogar etwas auf die eigenen iOS Devices zu schieben einen Kostenpflichtigen Account.. im Gegenteil, ich habe sogar WIKI, LibreOffice und manch andere meinen Obolus geleistet ..und selbst wenn Du als Betagtester unter NDA über die Entwicklerzeit gratis damit arbeiten darfst, löhnst Du mit Arbeitszeit und die Entwickler partizipieren von deinem Feedback..
Resolve ist keine Entwicklerplattform sondern ein Kreativtool der vormals unleistbaren HighEnd Klasse und wird bis auf ein paar für die wenigsten relevanten Features für umsonst auf den Markt gepresst und alle anderen Hersteller werden damit in die Knie gezwungen, da die Harbwarekomponente nicht vorhanden ist und somit keine Möglichkeit vorhanden ist dem Niedergang gegenzusteuern ...
Die paar Anwender die bei ihren Anwendung bleiben aus Gründen der gewohnten Haptik und Verliebtheit kannst Du nicht wirklich in die Überlebenskalkulation einbringen..
Antwort von Frank Glencairn:
"Darth Schneider" hat geschrieben:
.. weil es von Apple überhaupt keinen passenden Monitor dafür gibt.
Jetzt stell dir mal vor du kaufst dir irgend einen Dell einen HP, oder was auch immer für ein PC, und du müsstest dir dazu einen Apple Monitor kaufen weil es von HP und Dell keinen gäbe....
Seit wann muß denn die Monitor Marke die selbe sein, wie die Marke des Rechners?
Antwort von Darth Schneider:
Muss nicht, aber gehört doch irgendwie zum Rechner dazu, also warum nicht mehrere anbieten ?
Gruss Boris
Antwort von Frank Glencairn:
motiongroup hat geschrieben:
.. und wird bis auf ein paar für die wenigsten relevanten Features für umsonst auf den Markt gepresst und alle anderen Hersteller werden damit in die Knie gezwungen...
Wer genau wurde "in die Knie" gezwungen?
2021-02-22 13.18.04 www.google.com 295e8055e0a9.jpg
2021-02-22 13.17.32 www.google.com d40ba83fafc4.jpg
2021-02-22 13.17.03 www.google.com e9990efd69bd.jpg
Antwort von Frank Glencairn:
"Darth Schneider" hat geschrieben:
Muss nicht, aber gehört doch irgendwie zum Rechner dazu
Versteh ich nicht. Ich kauf einen Bildschirm doch nach Spezifikationen/Anwendungsgebiet, und nicht nach Markenaufkleber.
Antwort von markusG:
motiongroup hat geschrieben:
Da kann ich dir leider nicht helfen Markus.
Danke, kein Ding - zumindest mit AMD-GPUs gibt es einen Test der die Frage nochmal aufgreift:
https://www.youtube.com/watch?v=ClW7KUCuJB8&t=816s
Und den Rest kann man sich ja über Pugetbench dazudichten. Aber das sind halt nur nackte Zahlen statt die "Smoothness" zu bewerten.
Antwort von Sammy D:
"Frank Glencairn" hat geschrieben:
"Darth Schneider" hat geschrieben:
Muss nicht, aber gehört doch irgendwie zum Rechner dazu
Versteh ich nicht. Ich kauf einen Bildschirm doch nach Spezifikationen/Anwendungsgebiet, und nicht nach Markenaufkleber.
Da bin ich ausnahmsweise nicht der Pragmatiker. Ich hatte immer schon u.a. Apple-Displays. Erstens finde ich sie schön und zweitens sind im Vergleich zu anderen Monitoren (auch zu teuren) mit am besten verarbeitet (rundum).
Für spezielle Aufgaben nutze ich allerdings Eizos.
Der neue Monitor ist mir jedoch zu teuer.
Antwort von mash_gh4:
"Frank Glencairn" hat geschrieben:
Wer genau wurde "in die Knie" gezwungen?
ich bin mir nicht so sicher, ob's um die kurse bzw. den profit von SGO (mistika), TheFoundry (nuke), filmlight (baselight) und autodesk (flame/lustre) bzw. die genannten anwendungen, die jeweils als deutlich professionellere alternative zum resolve verstanden werden können, auch so rosig steht?
es ist aber nicht ganz so einfach zu beantworten, weil ja einzelne arbeitsbereiche bzw. gestalterische eingriffsmöglichkeiten durch resolve eine viel breitere wahrnehmung erfahren haben bzw. nun plötzlich auch in ganz gewöhnlichem produktionsrahmen zur selbstverständlichkeit geworden sind, was u.a. dazu führen könnte, dass sich auch diese überlegenen teuren werkzeuge hoffentlich irgendwie über wasser halten können. ein sonderlich profitables geschäft war das anbieten von derartiger spezialsoftware in verdammt kleinen nischen vermutlich ohnehin nie.
wirklich ärgerlich an resolve bzw. dem BMD vorgehen ist halt vor allem auch die ausgesprochen einseitige ausbeutung aller freien werkzeuge und libraries, ohne auch nur das geringste in diese richtung zurück zu geben bzw. offen zugänglich zu machen, wie es fast alle anderen erfolgreichen firmen mittlerweile tun.
Antwort von markusG:
mash_gh4 hat geschrieben:
wirklich ärgerlich an resolve bzw. dem BMD vorgehen ist halt vor allem auch die ausgesprochen einseitige ausbeutung aller freien werkzeuge und libraries, ohne auch nur das geringste in diese richtung zurück zu geben bzw. offen zugänglich zu machen, wie es fast alle anderen erfolgreichen firmen mittlerweile tun.
Dann müsste man ehrlicherweise aber auch Apple und Google boykottieren ;)
"Sammy D" hat geschrieben:
Der neue Monitor ist mir jedoch zu teuer.
Es soll ja noch ein günstigeres Modell kommen. Günstiger als den LG halte ich aber für seeeehr unwahrscheinlich.
Antwort von Frank Glencairn:
mash_gh4 hat geschrieben:
ich bin mir nicht so sicher, ob's um die kurse bzw. den profit von SGO (mistika), TheFoundry (nuke), filmlight (baselight) und autodesk (flame/lustre) bzw. die genannten anwendungen, die jeweils als deutlich professionellere alternative zum resolve verstanden werden können, auch so rosig steht?
Die Umfrage hier ist von 2014 (über 400 Coloristen aus 60 Ländern)
2021-02-22 14.05.03 i1.wp.com 2df5d3ba34e5.jpg
Schon damals hatte selbst auf Premiere mehr Colorgrading gemacht,
als auf absoluten Nischenprodukten wie Flame/Lustre, Nuke oder Mistika.
Wenn diese Anwendungen tatsächlich so viel professioneller wären, warum hat sie denn schon damals kaum einer benutzt?
Am Preis kanns ja nicht liegen, für Profis, die Profijobs machen, sollte das ja kein Thema sein, und müßte sich schnell bezahlt machen.
http://icolorist.com/what-are-you-grading-2014-results/
https://vimeo.com/114318624
Antwort von mash_gh4:
markusG hat geschrieben:
Dann müsste man ehrlicherweise aber auch Apple und Google boykottieren ;)
ja -- apple ist ohne zwefel das große vorbild, dem BMD hier nacheifert -- einstweilen halt noch immer auf billig!
gogle, facebook und microsoft mag man zwar aus anderen gründen ablehnen, oder gar als bedrohliches feindbild wahrnehmen, aber zumindest im hinblick auf ihre bedeutung für die freie software szenerie stellt sich die sache ein wenig kompliziter dar. die haben nämlich alle ziemlich trickreiche lösungen gefunden, sich die vorteile offenen produktionsweisen zu nutze zu machen und zu fördern, ohne dass ihnen dadurch wirtschaftlicher schaden entsteht -- ganz im gegenteil...
leider hat das ja mittlerweile auch dazu geführt, dass die entsprechenden grenzen bzw. schützenden lizenzvorgaben mittlerweile so weit aufgelöst sind - (überal BSD/MIT/Apache lizenzbedingungenm statt der lange dominierenden GPL), dass das alles schnell wieder ins gegenteil kippen kann.
Antwort von mash_gh4:
"Frank Glencairn" hat geschrieben:
Die Umfrage hier ist von 2014 (über 400 Coloristen aus 60 Ländern)
mein_gott_na -- wenn man die umfrage hier im forum macht, kommt resolve/fusion sicher auf anhieb auf eine 100% quote, weil ohnehin kaum mehr jemand etwas anders kennt od. zu benutzen versteht...
Antwort von freezer:
mash_gh4 hat geschrieben:
"Frank Glencairn" hat geschrieben:
Die Umfrage hier ist von 2014 (über 400 Coloristen aus 60 Ländern)
mein_gott_na -- wenn man die umfrage hier im forum macht, kommt resolve/fusion sicher auf anhieb auf eine 100% quote, weil ohnehin kaum mehr jemand etwas anders kennt od. zu benutzen versteht...
Interessante Art die Umfrageergebnisse umzudeuten...
Antwort von Jott:
2014 - fernste Vergangenheit, besonders wenn man die Frage nach den verwendeten Kameras anschaut! :-)
Antwort von markusG:
motiongroup hat geschrieben:
Nö, dass war wohl nix für uns... a liebe Plauderei was aber zu erwarten war..
Wenn du was zum schmunzeln schauen möchtest empfehle ich die von Youtube automatisch erzeugte Übersetzung von folgendem VIdeo :D
https://www.youtube.com/watch?v=rBWtSzCgSx4
Antwort von roki100:
also ich weiß nicht wie das mit DaVinci Resolve vor 2009 (damals da Vinci Systems) war, aber was Fusion betrifft, dass war auch damals (eyeon) sehr beliebt. Siehe die Liste: https://en.wikipedia.org/wiki/Blackmagic_Fusion#Uses
Antwort von motiongroup:
https://m.youtube.com/watch?v=U4yS7KfJTLo
Aber auch das gibt nicht alles her was die Kiste her gibt.
@roki
Derer gibt es viele
https://de.m.wikipedia.org/wiki/Lightworks
Uvm
Antwort von mash_gh4:
motiongroup hat geschrieben:
@roki
Derer gibt es viele
https://de.m.wikipedia.org/wiki/Lightworks
ja -- lwks ist leider wirklich ein ganz grauenhaftes bsp. dafür, wie weit die tatsächlichen qualitäten eines programms und die scheinbare reputation nach äußen auseinanderlufen können. in wahrheit ist es aber schön sehr länge nichteinmal mehr der erwähnung wert -- auch wenn zumindest die Thelma Schoonmaker darauf sicher bis zu ihrem ende werken wird.
was fusion angeht, würde ich wirklich mit großer überzeugung behaupten, dass es im gegensatz zu nuke vor einigen jahren noch eine fast vernachlässigbare rolle gespielt hat. es wurde wirklich nur durch das aufkaufen und integrieren ins resolve vor den völligen untergang bzw. dem vergessen gerettet. allerdings sagt das weder etwas über die tatsächlichen qualitäten, noch über die wirtschaftliche profitabilität aus.
warum nuke hier eine wesetlich bedeutendere rolle gespielt hat bzw. unter ernsthafteren handwerkern in diesem feld noch immer spielt, wir einem ohnehin schnell klar, wenn man mit beiden programmen einmal gearbeitet hat. es ist zwar damit prinzipiell ganz ähnliches möglich wie in fusion, aber letztlich liegen dann im detail doch wieder welten zwischen diesen beiden werkzeugen! trotzdem taumelt nuke bzw. die firma dahinter schon länger am abgrund dahin, so dass ich leider keine besonders optimistischen prognosen bzgl. der zukunft dieser phantastischen software abgebene würde.
wären produkte wie fusion oder gar so etwas wie nuke schon länger in den händen von BMD, hätte die welt jedenfalls ganz bestimmt nie so etwas wie OpenFX gesehen! auch OpenColorIO / ACES und OpenTimelineIO, die erst später dazu gekommen sind, werden zwar in BMD software auch immer irgendwann lieblos mitunterstützt, wenn man gar nicht mehr darum herum kommt, aber die tatsächliche innovation geht dabei fast immer von ganz anderen akteuren aus.
Antwort von roki100:
motiongroup hat geschrieben:
@roki
Derer gibt es viele
https://de.m.wikipedia.org/wiki/Lightworks
Uvm
mMn nach überhaupt nicht mit Davinci und Fusion zu vergleichen, dennoch, ich erinnere mich noch ganz am Anfang als ganz groß verbreitet wurde, dass es OpenSource wird und dass das endlich ein tolles Videoediting Programm für Linux sein wird. Und was ist passiert? Es hat sehr sehr lange gedauert bis irgendetwas passiert ist und dann plötzlich, hatte jemand die Idee sich darin zu bereichern...Die OpenSource Welt wurde quasi als Werbungsmaschine missbraucht und am ende waren die meisten enttäuschst....KDELite&Co. waren da schon viel weiter nur mit nicht so "professionelle"-Gui (LWKS ist also etwas wie außen hui innen pfui). Im Verglich ist da BMD großzügiger bzw. man bekommt echte Werkzeuge kostenlos und kann damit gut aussehende produktive Sachen zaubern.
Was gute Zukunft hat, ist Blender. Es entwickelt sich aktuell auch viel schneller als damals und m.M. auch in die richtige Richtung. Es wurden Entwickler aus Blender Community "eingesammelt" die auch ordentlich Geld dafür bekommen (ich glaube nicht nur durch spenden sondern irgendein Reicher Mensch finanziert das ganze?) um Blender picobello zu machen. Mit der Version 2.92 kommen z.B. tolle Werkzeuge u.a. für Motion Grafiken...! :)
Was viele nicht wissen, EEVEE gibt es schon lange (wenn ich mich richtig erinnere war Blender Vers. 2.73 PBR_Mod) und kommt eigentlich aus UE Quellcodes... Blender Source sind ja frei zugänglich und kann jeder mitmachen. Und so wie auch heutzutage, gab es auch damals einige aus der Community, die Blender modifizierten und somit eigene Blender Version zur Verfügung stellten (einige Verlangen für eigene Version natürlich Geld, ist gut und nichts verbotenes, man kann es eben als Unterstützung/Motivation sehen, damit derjenige weiter macht...)... So hat ein User Blender PBR (EEVEE) veröffentlicht und genau dieser User wurde auch mit eingesammelt der nun EEVEE (uvm.) weiterentwickelt. Das war ein großer Schritt... und genau in die richtige Richtung...PBR wie man es auch von Fusion kennt, nur eben mit alle andere Blender Werkzeuge kombiniert u.a. Physics usw. dazu bald auch Node für Motion Grafiken...das Gesamtpaket, wird bald einfach nur Top! Auch VSE wird weiterentwickelt.
Antwort von motiongroup:
Kann man auch nicht vergleichen da lwks viel länger am markt ist als resolve .
Das eine ein nle das andere als grading Spezialanwendung konzipiert wie viele andere tools in dieser Sparte like discreets Komplettsuite edit/effects/paint von denen grad mal combustion/softimage und DS zu autodesk wanderten und quasi verschwanden
Selbiges Szenario bei Fast mit Silver/Purple/Blue oder auch Media 100 oder die ulead billigschiene msp und cool3d die von Adobe zerbröselt wurde.
Cinegy Quantel pinacle selbst canopus/Edius Usergroup steht irgendwie grad lautlos herum und ist recht still
Die Liste ist unendlich lange
Antwort von mash_gh4:
motiongroup hat geschrieben:
Die Liste ist unendlich lange
ja -- es ikst wirklich spannend, wenn man sich historische artikel zur marktübersichten ansieht vor 10 od. 20 jahren ansieht, und sich gedanken darüber macht, in welcher weise sich der darin erkennbare wandel auf heute weit verbreitete lösungen auswirken wird... ;)
Antwort von markusG:
motiongroup hat geschrieben:
Aber auch das gibt nicht alles her was die Kiste her gibt.
Tja um ehrlich zu sein kann ich ihn nicht so wirklich ernst nehmen. Seine Videos wirken immer so... Gekauft 😅 aber wenn es wirklich nicht nur bei ihm instabil sein sollte (jaaa beta und so) wäre das schon ein Argument ggü. purer Leistung.
Ich frage mich zudem immer was die Obsession mit den Laptops soll...
Antwort von mash_gh4:
roki100 hat geschrieben:
... Die OpenSource Welt wurde quasi als Werbungsmaschine missbraucht und am ende waren die meisten enttäuschst....KDEnLite&Co. waren da schon viel weiter nur mit nicht so "professionelle"-Gui (LWKS ist also etwas wie außen hui innen pfui). Im Verglich ist da BMD großzügiger bzw. man bekommt echte Werkzeuge kostenlos und kann damit gut aussehende produktive Sachen zaubern.
naja -- ich finde ehrlich gestanden nuke-non-commercial ein kaum weniger großzüges od. zumindest verlockendes entgegenkommen. und auch "mistika insight", das es ja nun leider nicht mehr gibt, weil es vermutlich von kaum jemanden angenommen wurde, war ganz ähnlich toll, um mit wirklich großartigen tools kreativ arbeiten zu dürfen bzw. erfahrungen zu sammeln.
trotzdem -- freie lösungen bzw. die vorteile von offenen firmenübergreifenden standards kann das natürlich alles nicht ersetzen!
daher die frage an @roki100:
kannst du mir irgendein beispiel nennen, wo die "großzügige" firma BMD im laufe ihres nun doch nicht mehr ganz so jungen daseins (a) selbst entwickelten programmcode, (b) für andere verwendbare frei standandardisierungsvorschläge od. auch nur (c) verbesserungen an open source software komponenten, die sie selbst verwenden, an die OSS community zurückgegeben hätte?
ich kann mich ehrlich gestanden an keinen einziges derartiges beispiel erinnern, obwohl ich diese dinge nun doch schon einige jahre relativ aufmerksam verfolge.
Antwort von roki100:
mash_gh4 hat geschrieben:
daher die frage an @roki100:
kannst du mir irgendein beispiel nennen, wo die "großzügige" firma BMD im laufe ihres nun doch nicht mehr ganz so jungen daseins (a) selbst entwickelten programmcode, (b) für andere verwendbare frei standandardisierungsvorschläge od. auch nur (c) verbesserungen an open source software komponenten, die sie selbst verwenden, an die OSS community zurückgegeben hätte?
Nein. Ich sehe das ähnlich wie Du, nur meckern damit habe ich es nicht so... :) Wir können meckern und meckern, ändern können wir aber quasi nichts. Der Tag ist doch wertvoller als diesen mit meckern und meckern zu verbringen....
Antwort von mash_gh4:
roki100 hat geschrieben:
...ändern können wir aber quasi nichts.
doch! -- unsere einstellungen und sicht der dinge können wir natürlich ändern!
sonst bräuchten wir unsere unterschiedlichen sichtweisen hier ohnehin gar nicht erst austauschen und diskutieren.
es liegt auch ganz alleine an uns, ob wir uns in diesen dingen völlig unkritisch verhalten wollen, oder eben eine einigermaßen konsequente und klare haltung an den tag legen.
Antwort von Darth Schneider:
Warum hat BMD dann das hier auf der Homepage ?
https://www.blackmagicdesign.com/developer/
Ich denke wenn jetzt einer eine zündende Idee hat, und damit zu BMD gehen würde, wären die womöglich offener als ihr vielleicht denkt.;)
Gruss Boris
Antwort von mash_gh4:
"Darth Schneider" hat geschrieben:
Warum hat BMD dann das hier auf der Homepage ?
https://www.blackmagicdesign.com/developer/
vermutlich, um die leute zu irritieren -- so wie man das auch mit blendgranaten macht. ;)
in wahrheit findest aber aber in der betreffenden sektion maximal code, um BMD-hardware zum laufen zu bringen. selbst dort bemühen sie sich aber nach kräften, die schnittstellen in einer weise umzusetzten, dass bspw. die anforderungen der GNU-lizenz, wie sie unter linux für kernel module gelten, nicht greifen, etc.
die ganze geschichte ist in wahrheit kompliziert als man denkt.
so kann man z.b. durch das anbieten von SDKs mit fertig compilierten libraries ganz wunderbar verhinden, dass man tatsächlich code bzw. einblick in eigene software weitergeben muss, ohne dass das sofort als gravierende restriktion erscheint. aber natürlich kann man mit einer derartigen lösung im rahmen freier software nicht sehr viel anfangen. deshalb ist ja auch bspw. BRaw in allen freien videoverarbeitungslösungen praktisch unbenutzbar.
Antwort von motiongroup:
Tja um ehrlich zu sein kann ich ihn nicht so wirklich ernst nehmen. Seine Videos wirken immer so... Gekauft 😅
da bin ich voll bei dir und geht mir fast mit allen Anbietern und Influencern so... es gibt wenige wie bspw Phoronix die Seriosität versprühen...
Antwort von motiongroup:
na ja, dass war wohl nix
Antwort von markusG:
oder beim Pro:
https://www.youtube.com/watch?v=Yv8liIkcbAs
Antwort von motiongroup:
andre Geräteklasse inkl dedizierte GPU..aber der ist ned schlecht für ne x86 Klasse.. leider gibts den nicht mit ner AMD GPU sonst wäre das eventuell ein krasses LinuxTeil..
Antwort von markusG:
Das ist ja eben das Problem: der M1 lässt ja nicht mal eGPU zu. Und ob künfitge MBP mit dedizierten GPUs kommen wird ist ja auch eher offen. Da gibt es einfach nichts vergleichbares ausser die alten MBP. Naja was nicht ist kann ja noch werden ;)
Derweil wird es beim Air demnächst bunt:
https://www.heise.de/news/Leaker-Naechs ... 41840.html
Antwort von motiongroup:
Nun ja ich vergleiche es immer in der Geräteklasse und somit habe ich das Problem nicht
Antwort von markusG:
motiongroup hat geschrieben:
Nun ja ich vergleiche es immer in der Geräteklasse und somit habe ich das Problem nicht
Naja mich interessiert die Geräteklasse herzlich wenig, ist ja auch nur ein künstliches Konstrukt. Mich interessieren eben Parameter bzw. "was kann die Kiste".
https://www.youtube.com/watch?v=u1q1cxYpca4
Dass es kein 1zu1 Klon ist sollte ja klar sein, würde mMn auch keinen Sinn machen bei dem Preis den Apple veranschlagt. Im PC-Laptopbereich kann man ebenso schnell arm werden (wenn man keine Kompromisse eingehen will)...
Antwort von motiongroup:
Naja mich interessiert die Geräteklasse herzlich wenig
eigentlich muss es dich ja interessieren sonst würdest du darüber auch nichts schreiben...
wenn ich aber einen Einsteiger Laptop mit ner Kiste mit dedizierter GPU drauf loslasse und mich über das gute Abschneiden bei GPU unterstützten Programmen freue muss ich mir als Laie meinen Teil denken...
Tja Markus, da hilft nur warte oder woanders kaufen …;)
Antwort von markusG:
motiongroup hat geschrieben:
eigentlich muss es dich ja interessieren sonst würdest du darüber auch nichts schreiben...
Interessiert mich nicht mehr oder weniger als dich :P
Die Laptops an sich interessieren mich in der Tat herzlich wenig (bzw. sekundär - als Empfehlung für andere z.B.), aber:
motiongroup hat geschrieben:
wenn ich aber einen Einsteiger Laptop mit ner Kiste mit dedizierter GPU drauf loslasse
Das "Ding" ist ja dass es auch im Desktop eingesetzt wird wo man ja weniger auf Akkulaufzeit achten muss, da durch den Einsatz der gleichen Chips aber die gleichen Flaschenhälse vorhanden sind.
Und da die iGPU nunmal noch nicht (überall) das Niveau einer dedizierten GPU* erreicht hat bleibt bloß:
motiongroup hat geschrieben:
Tja Markus, da hilft nur warte oder woanders kaufen …;)
Demnächst soll ja der M1X vorgestellt werden. Dann schauen wir mal weiter ;) Das ändert natürlich nichts an den Softwareherstellern die nicht bzw. nur langsam auf die neue Architektur umsatteln. Im Zweifel wird es bei mir was anderes und ich schau in ein paar Jahren nochmal vorbei wenn alles super etabliert ist und auch das letzte Stückchen Software portiert wurde^^
*überlegenswert wäre es natürlich in Punkto Kompromiss zugunsten Preis (die abartigen GPU-Preise muss ich ja nicht erwähnen...) und Kühlleistung (effizienteres Design), da ich nicht für meinen Hauptjob schaue. Ich bleib bei: spannend :)
*edit:
https://twitter.com/LeaksApplePro/statu ... 9175602177
ich denke bis zur WWDC halte ich noch durch mit dem warten^^
Antwort von motiongroup:
Das "Ding" ist ja dass es auch im Desktop eingesetzt wird wo man ja weniger auf Akkulaufzeit achten muss, da durch den Einsatz der gleichen Chips aber die gleichen Flaschenhälse vorhanden sind.
Und da die iGPU nunmal noch nicht (überall) das Niveau einer dedizierten GPU* erreicht hat bleibt bloß:
Desktop? welcher wäre denn das? weder mac mini noch der 24" imac sind Desktops... der eine brennt den NUC her und der andere ist AIO der jeden der AIOs im vergleichbaren Segment verbläst obwohl dies gar nicht das Umfeld berührt für das sie gebaut wurden.. das sind keine Renderknechte sondern Arbeitsmaschinen abseits von den Intel HighEnd WKST Konfigurationen... Das Resolve darauf auch läuft wie geschnitten Brot ist doch nett aber nicht das Maß der Dinge oder? Die ProApps aus dem Apple- Haus nona das die fahren weil speziell darauf optimiert und somit ist das Kind in trockenen Tüchern für DIE, die sich von Haus aus darüber im klaren sind was sie da kaufen... Büro, Bild, Musik, Web, Entwicklung.... habe ich noch was vergessen ach ja pornhub :));))...
Dafür braucht's aber keine neue Maschine, das konnte auch meine alten und können's heute noch..
https://www.mactechnews.de/news/article ... 76490.html
ipadPro? mal ehrlich, braucht man die Leistung...:=) vermutlich nicht aber schön sie zu haben sollte ich sie brauchen
Antwort von markusG:
motiongroup hat geschrieben:
Desktop? welcher wäre denn das? weder mac mini noch der 24" imac sind Desktops
Laut Apple schon :) Genaugenommen sind das eher Desktops als was du wahrscheinlich meinst (Tower) weil sie sogar auf dem Desktop stehen bzw. liegen...und klassische Desktops a la Brotkasten sind abseits von HTPC eh exotisch geworden.
motiongroup hat geschrieben:
Das Resolve darauf auch läuft wie geschnitten Brot ist doch nett aber nicht das Maß der Dinge oder?
Außerm dass sie es nicht tun - wenn man GPU lastige Effekte einsetzt. Das gleiche mit After Effects. Ich rechne das jetzt mal nicht als High End Workstation...Es ist jedenfalls ärgerlich von Usern zu hören die sich durch YTer beeinflusst ne Kiste geholt hat, die dann aber nicht liefert. Halt verklärte Sicht.
motiongroup hat geschrieben:
Die ProApps aus dem Apple- Haus
Ich habe was dagegen dass einem vorgeschrieben wird was man einzusetzen hat nur damit es "rund" läuft. Mir ist schon klar dass das momentan das Optimum auf der Plattform darstellt. Aber je nach Workflow kann man damit nicht arbeiten. Deswegen meinte ich ja auf die übrigen Entwickler warten, die haben das ja alle mehr oder weniger auf dem Schirm, sind halt noch nicht so weit. Ist ja nicht so dass man absolut keine Alternative hat.
motiongroup hat geschrieben:
Dafür braucht's aber keine neue Maschine, das konnte auch meine alten und können's heute noch..
Ja eh. Ich glaub den meisten sind höchstens die lauten Lüfter in den Laptops aufn Keks gegangen.
Mal ehrlich: in dem Forum geht's doch nicht um Wald-und-Wiesen Privatbenutzung. Da reicht theoretisch auch ein Chromebook, oder iPad usw.
Also nochmal: es geht mir nicht um das "ist". Das sollte ja nun durch sein. Sondern was da noch kommt.
Antwort von motiongroup:
nun ja, ein AIO bleibt ein AIO wie das Studio von MS und da gibt's kein Geplänkel wo ich das nun einordnen sollte...
ich habe hier ein Air mit M1 das haut ab wie nur etwas und trotzdem sitze ich hier an Ubuntu 20.4 LTS und gut ist auch wenn langsamer weil dort eben grad der Scanner für's DMS schuftet und OCR verarbeitet...
Orientiert an dem was ich brauche und in Zukunft wird's...? keine Ahnung was da kommen wird.. ich spekuliere auf POP!OS... das läuft aktuell auf dem NUC und s'geht voll gut.. was steht also an ... VollaPhone? nur noch Linux... keine Ahnung
https://support.system76.com/articles/s ... -to-popos/
finde ich krass und freut auch den Umsteiger mit Problemlosigkeit..
Antwort von markusG:
motiongroup hat geschrieben:
nun ja, ein AIO bleibt ein AIO wie das Studio von MS und da gibt's kein Geplänkel wo ich das nun einordnen sollte...
Naja ein iMac Pro ist ja genaugenommen auch ein AIO, und der MP2013 ein NUC^^
motiongroup hat geschrieben:
ich spekuliere auf POP!OS...
Das habe ich auch seit längerem auf dem Schirm, werde mir aber auch KDE anschauen. Hab hier noch einen NUC rumfliegen der mal "restauriert" werden muss, dann kann ich das mal ausprobieren. Vielleicht wird es auch wieder ein Hybrid aus E16+Gnome wie beim letzten mal als ich Linux benutzt habe^^ dazu dann ne VM für Produktivapps die es nicht oder nicht gescheit unter Linux gibt...
Das ganze ist aber auch in Abhängigkeit was Apple bis zum Stichtag rausbringt. Ich schiele ja auf den neuen Mac Mini - der Mac Pro wird ja wahrscheinlich noch ne Weile brauchen...
Antwort von motiongroup:
Naja ein iMac Pro ist ja genaugenommen auch ein AIO, und der MP2013 ein NUC^^
der imacPro war ein AIO nur der NMP war kein NUC ..war nur bedingt Aufrüstbar aber mit der dedizierten GPUs der D-Series recht potent und läuft heute noch im dienst ohne Probleme und wird trotz ausgelaufener Worklive weiterverwendet ... den will keiner hergeben..
ne KDE ist nicht mein Fall zu ... ich weis nicht was ... nicht mein Fall eben..
in der VM laufen nur die Testsysteme der Linuxderivate, Windows kommt nicht in Frage und somit habe ich auch kein Kopfweh..
Antwort von markusG:
motiongroup hat geschrieben:
nur der NMP war kein NUC ..war nur bedingt Aufrüstbar aber mit der dedizierten GPUs
Wenn dedizierte GPUs dein Kriterium sind: die gibt es auch bei NUCs* ;)
motiongroup hat geschrieben:
ne KDE ist nicht mein Fall zu ... ich weis nicht was ... nicht mein Fall eben..
Ich habe es früher auch nicht gemocht, wollte dem ganzen aber nochmal ne Chance geben. Gnome geht mir zu sehr Richtung ChromeOS, das ist nicht so mein Schnack. Pantheon klingt zwar wie ein optimales Zwischending, aber das wird dann Teil des "Tests" werden :)
motiongroup hat geschrieben:
in der VM laufen nur die Testsysteme der Linuxderivate, Windows kommt nicht in Frage und somit habe ich auch kein Kopfweh..
D.h. du benutzt nur native Software? Und was macht dir bei Windows in einer VM Kopfweh? Ich dachte das wäre relativ einfach (da dafür optimiert)?
*mir ist schon klar dass das kein 1zu1 Äquivalent ist; wäre ja total langweilig wenn jeder das gleiche produzieren würde ;)
Antwort von motiongroup:
Wenn dedizierte GPUs dein Kriterium sind: die gibt es auch bei NUCs* ;) ich deute den smiley richtig... keine der NUCschen dedi GPUs war einer Dedi-GPU würdig und wurde resp. wird Locker von der aktuellen M1er getoppt.
Windows? erstens lebe ich in der Windowswelt im Büro und schlage mich mit den Admins unseres Rechenzentrums herum und weis deshalb etwas Bescheid wie sich MS und auch Apple geschweige denn Google mit ihrem Android in Verbindung mit den Softwareentwicklern so herumwindet respektive es einfach umgeht sich an die DSGVO zu halten und das besonders beim Sammeln von Telemetrieinformationen zur Generierung eines Patterns off Live egal von wem und was auch immer.
Aus diesem Grund absentiere ich mich schön langsam von diesen Systemen... was mir auch immer besser gelingt OHNE auf etwas verzichten zu müssen...
Software in der Hauptsache nativ weil ich so oder so alles parat habe unter Linux.. ein Teil über Web wie bspw. Ninox
Pantheon like MacOs :) like elementaryOS... aktuell habe ich in der VM auf dem alten 17"er Mbp deepin... schön angelehnt an MacOS leider von den Schinesen verbogen auf Ubuntu basierend.. nun ja Linux ist frei... und somit haste die Wahl
ach ja, am besten konnte ich MacOs mit Budgi abbilden, da glaubte meine Kollegenschaft das es sich um eine neues OSX in der Beta handelte :)))
Antwort von markusG:
motiongroup hat geschrieben:
Wenn dedizierte GPUs dein Kriterium sind: die gibt es auch bei NUCs* ;) ich deute den smiley richtig... keine der NUCschen dedi GPUs war einer Dedi-GPU würdig und wurde resp. wird Locker von der aktuellen M1er getoppt.
Hab ich was falsch verstanden? Da ist doch eine Desktopversion verbaut:
https://hardwaresfera.com/en/analisis/p ... me-review/
Muss aber gestehen mich nicht weiter damit beschäftigt zu haben. Mit der Leistung eines M1 hat das aber nicht im geringsten zu tun*:
https://www.slashcam.de/artikel/Test/Bl ... solve.html
Von daher weiß ich nicht wie du auf die Behauptung kommst? Gab es vielleicht noch andere Versionen? Hab in einem anderen Benchmark jedenfalls gesehen dass sich der M1 zwischen dem mobilen GTX1650&1660Ti einordnet, insgesamt. Hab mich aber nicht weiter damit beschäftigt. Wegen der Verfügbarkeit bin ich aber auch auf denZOTAC MAGNUS ONE mit RTX3070 (desktop...) Barebone gestoßen. Und sorry, aber was du beim Trashcan noch als potent beschrieben hast ist heute schlichtweg veraltet, im Verhältnis. Ich benutze auch noch meine betagte GTX780, aber künftig wird die auch nimmer reichen. Dabei war die mal "Oberklasse"...
motiongroup hat geschrieben:
und das besonders beim Sammeln von Telemetrieinformationen zur Generierung eines Patterns off Live egal von wem und was auch immer.
Verstehe - das ist auch der Grund weshalb ich zu Linux tendiere. Das Windows in der VM wäre in meinem Fall auch maximal gehärtet und entschlackt wie es nur geht - und eben nur bei Bedarf wenn nichts anderes geht. Z.B. soll Affinity oder Adobe nicht so recht über Wine & Konsorten laufen, aber das werde ich dann alles testen sobald es soweit ist...(von Adobe eh weg da ebenso Datenkrake, aber das ist ein anderes Thema...)
motiongroup hat geschrieben:
Software in der Hauptsache nativ weil ich so oder so alles parat habe unter Linux.. ein Teil über Web wie bspw. Ninox
Das klingt sehr gut bzw. zuversichtlich :) plane auch Cloudlösungen, Messenger usw. in diese Weise zu verlagern. Gibt da ja zum Glück inzwischen genug a la selbstgehostetes Nextcloud usw. :)
motiongroup hat geschrieben:
Pantheon like MacOs :) like elementaryOS...
Naja ich möchte eigentlich kein Abklatsch haben. Ich bin da nicht wirklich "romantisch" und zimmer mir das am Ende eh zu, und da soll KDE halt am flexibelsten sein. Bin halt nicht so glücklich bzgl. QT, aber das probier ich dann mal alles aus. Hauptsache nicht zu sehr klicki-bunti a la ChromeOS, zumindest nicht für den Desktop...
*edit: hab gerade erst gesehen dass das ja alles mobile GPUs sind -_-
**edit: die Antithese zu Elementary/Pantheon :D - Garuda:
https://www.youtube.com/watch?v=L2JomQEgnmI
Antwort von motiongroup:
https://geizhals.at/zotac-gaming-geforc ... ml?hloc=at
wie das Angebot von Zotac halten soll bleibt bei den GPU Preisen vermutlich ungelöst... und der Nuc ist in diesem Fall ziemlich overpimped..:))
auch dieser hier https://geizhals.at/intel-nuc-11-enthus ... ml?hloc=at
und trotzdem bleibt es dabei das erstens wie im Falle M1 kein Weg an OSX vorbei führt und somit NV tot ist und oder die Leistung der angepassten M1 Varianten wie eben das von Dir beschrieben affinity ohne Konkurrenz bleibt was aber wieder vollkommen nebensächlich ist bei der normalen Arbeit..
Garuda Linux Jesus das macht Augenkrebs.. aber wirklich... das mit Gnome40 macht mich auch eine wenig unsicher Seitens der nächsten Ubuntu LTS die aktuell Fedora mit Gnome 40 spricht mich ned so an..
Antwort von markusG:
motiongroup hat geschrieben:
und trotzdem bleibt es dabei das erstens wie im Falle M1 kein Weg an OSX vorbei führt und somit NV tot ist
Ich habe für mich beschlossen dass OSX null Prio hat. Gerade im Hinblick auf parallele Entwicklungen zu MS. Das ist pure Präferenz, es hat alles seine Daseinsberechtigung - dennoch möchte ich weg von diesen "goldenen Käfigen". Ich habe eigentlich auch nur wegen Studium/Job diese Linux-Pause gemacht; nach heutigem Stand hätte ich die vermutlich gar nicht gebraucht.
motiongroup hat geschrieben:
oder die Leistung der angepassten M1 Varianten wie eben das von Dir beschrieben affinity ohne Konkurrenz bleibt was aber wieder vollkommen nebensächlich ist bei der normalen Arbeit..
Also die Benchmarks die ich gefunden habe zeigen ebenfalls das Gefälle bzgl. GPU (es wird sogar Multi GPU unterstützt...in einer 2D Grafik-Suite! :D), aber gleichzeitig die Potenz des CPU Teils. Schon spannend und ich habe keine Ahnung wie die Gewichtung ist, bin noch in der Trial und hatte noch keine Zeit für den Umstieg^^
Ich hoffe ja insgeheim auf einen Port auf Linux, weiß aber dass das vermutlich nie passieren wird (trotz Möglichkeiten wie Crowdfunding...)
motiongroup hat geschrieben:
Garuda Linux Jesus das macht Augenkrebs.. aber wirklich...
Es passt voll zum aktuellen Gamer-Trend zu Einhornkotze-PC-Beleuchtung :D aber auch bissl zum Retrotrend. Finde ich witzig, aber im Alltag ist man dann vermutlich ständig breit, vom simplen Betrachten^^
Antwort von motiongroup:
Ich habe eigentlich auch nur wegen Studium/Job diese Linux-Pause gemacht; nach heutigem Stand hätte ich die vermutlich gar nicht gebraucht.
Aktuell zumindest nicht, Meine Tochter ist im Endspurt beim Studium und bedingt durch die Cov19 Krise läuft alles, resp das meiste Online via Moodle auf der UniWien.. sie Switcht zwischen MacOS und Linux hin und her als ob's nichts wäre.. die Vorarbeit für's Diplom bleibt im OpenDoc Format um zwischen Word und LibreWriter austauschbar zu bleiben.. Pages viel leider wegen der fehlenden OpenDoc Formate durch.. den Rest für's Formelgedöns geht bei ihr über LaTex brrrr daran bin ich ewig Gescheitert.. läuft auf nem 2016 MB Air auf nem THB Display und nem kleinen alten iPadPro der ersten Gen mit PencilOne zum mitschreiben während der Vorlesungen...
Wie gesagt, in der Regel braucht's keinen M1 und auch die Amd/Intelgeräte können alles was notwendig ist für die tägliche Arbeit für die sie speziell angekauft oder geleast wurden.. Aus der Sicht von Apple war's glaube ich der richtige Schritt um sich von Intel zu lösen, wobei mir die Nvidia/Arm Fussion mehr Kopfzerbrechen bereitet und das nicht nur mir..
Antwort von markusG:
motiongroup hat geschrieben:
läuft auf nem 2016 MB Air auf nem THB Display und nem kleinen alten iPadPro der ersten Gen mit PencilOne zum mitschreiben während der Vorlesungen...
Das wären zu meiner Studienzeit Träume gewesen =) damals waren Laptops schweineteuer, erst recht von Apple, so dass man eigentlich fast immer im Rechnerpool gearbeitet hat, es sei denn man kam bereits aus der Arbeitswelt und war "ausgestattet"...schöne neue Welt <3
motiongroup hat geschrieben:
Aus der Sicht von Apple war's glaube ich der richtige Schritt um sich von Intel zu lösen
Auch Erzrivale Samsung scheint die Signale zu erkennen und peilt eine Kooperation mit AMD an (für SoCs):
Bericht: Samsung plant eigenen Laptop-Prozessor mit AMD-Grafik noch dieses Jahr
https://www.heise.de/news/Bericht-Samsu ... 42040.html
Zum Thema Nvidia/ARM...ich denke der Fokus liegt da primär auf dem Servermarkt. Für's erste.
*edit: und Intel hat sich ebenso vom schwammigen MArkteing-Bullshit-Bingo anstecken lassen^^
https://youtu.be/p-ZrIq0s7XQ?t=655
Antwort von mash_gh4:
markusG hat geschrieben:
Zum Thema Nvidia/ARM...ich denke der Fokus liegt da primär auf dem Servermarkt. Für's erste.
nein -- ein ganz wesentlicher bereich dürfte auch im embedded systems umfeld bzw. dem dortigen machine leraning und computer vision einsatz zu sehen sein. die entsprechenden jetson module können es schon jetzt ohne weiteres mit den apple lösungen aufnehmen, wenn der code dafür optimiert ist.
https://www.nvidia.com/de-de/autonomous ... d-systems/
ich persönlich glaub halt, dass momentan RISC-V wesentlich spannender und zukunftsweisender wirkt bzw. dort gegenwärtig immer mehr innovativere ansätze anzutreffen sind.
mit den den vektor extensions scheint sich dort auch gerade eine beschleunigungslösung zu etablieren, die ganz viele altlasten und einschränkungen der intel (AVX) und ARM (neon) SIMD verarbeitung hinter sich lässt und jenen momentan allgegenwärtigen bemühungen, die scharfe trennline zw. GPGPU- und CPU-prozessing zu überwinden, besonders gut entgegen kommt:
https://erik-engheim.medium.com/arm-vs- ... 2f201f402f
https://medium.com/swlh/risc-v-vector-i ... 9b17963a31
eine ganz gute und allgemein verständliche erklärung, warum risc-v aus wirtschaftlichen überlegungen heraus momentan so viele mitspieler anzieht, aber auch eine kritische einschätzung bzgl. völlig übertiebener hoffnungen, scheint mir hier dargelegt zu werden:
Antwort von Frank Glencairn:
Das ist für so einen kleinen "Billigrechner" schon ziemlich beeindruckend.
Antwort von motiongroup:
eine ganz gute und allgemein verständliche erklärung, warum risc-v aus wirtschaftlichen überlegungen heraus momentan so viele mitspieler anzieht, aber auch eine kritische einschätzung bzgl. völlig übertiebener hoffnungen, scheint mir hier dargelegt zu werden:
Absolut, sehe ich auch so.. vor allem bringt es dem Endanwender gar nichts und selbst für den Entwickler wenig bis gar nichts so er nicht zu einem der globalen Player gehört und es sich leisten kann… ich versteh auch nicht die Ansage „alle gegen ARM“ da sich bei einer Verschiebung zugunsten Risc-V Nvidia nur nen Sidestep hinlegen würde zumal sie auch dort schon involviert sind..
@MarkusG
damit sich die Gemahlin nicht umgewöhnen muss :)
Bild.jpeg
Antwort von markusG:
motiongroup hat geschrieben:
damit sich die Gemahlin nicht umgewöhnen muss :)
Hihi ja das gleiche hab ich mit nem Arbeitskollegen vor, dessen MacPro langsam zu alt ist und der neue zu teuer^^ Das gleiche gibt es auch im Look and Feel von Win10. Wer es unbedingt braucht...(vielleicht gar nicht so schlecht für den Umstieg bei Ämtern :P)
*edit: keine Ahnung ob Sosumi hier schon erwähnt wurde und ist eigtl. nix neues, der Vollständigkeit halber:
https://www.youtube.com/watch?v=6WgjQpm9VWE
Antwort von mash_gh4:
motiongroup hat geschrieben:
ich versteh auch nicht die Ansage „alle gegen ARM“ da sich bei einer Verschiebung zugunsten Risc-V Nvidia nur nen Sidestep hinlegen würde zumal sie auch dort schon involviert sind..
naja, dazu muss man z.b. auch diese werbekampagnen kennen, die ARM gegen RISC-V gefahren hat bzw. sehr schnell wieder gestoppt hat, aus denen ganz gut ersichtlich wird, wo gegenwärtig die tatsächliche konkurrenz bzw. immer attraktiver werdenden alternativen zu suchen sind:
https://www.linux-magazin.de/news/arm-b ... -kampagne/
https://bit-tech.net/news/arm-targets-r ... ng-push/1/
https://www.extremetech.com/computing/2 ... aff-revolt
nvidia ist/war zwar tatsächlich in den letzten jahren stark an der RISC-V entwicklung beteiligt und nutzt entsprechende kerne auch bereits schon länger produktiv in form der falcon controller auf ihren grafikkarten, trotzdem gibt's andere hersteller und forschungsteams, die in dieser hinsicht weit mehr innovatives eingebracht haben bzw. voran treiben.
Antwort von motiongroup:
Das ist ja das was ich meine, die Geschichte der ARM gegen Risc-V liegt ja in der Vor-Nvidia Zeit, in der Zeit als sie selbst noch Lizenznehmer waren... Das Dokument ich nun auch vom Netz genommen und ich sehe da irgendwie nen Wiederspruch zu Nvidias Kaufinitiative seitens ARM wobei sich gerade bei https://www.nvidia.com/de-de/autonomous ... d-systems/ der Ansatz "aus allen Welten zu partizipieren " niederschlägt...
Antwort von motiongroup:
Jetzt trudeln sie ein die Clone..:)))
Antwort von mash_gh4:
das hier könnte evtl. auch ganz interessant werden:
https://www.cnx-software.com/2021/05/09 ... roid-apps/
Antwort von motiongroup:
Ja aber nicht für die die sich um die Sicherheit sorgen machen…. Selbiges wie bei Deepin
Antwort von mash_gh4:
motiongroup hat geschrieben:
Ja aber nicht für die die sich um die Sicherheit sorgen machen…. Selbiges wie bei Deepin
ich würde natürlich auch niemals eine dieser idiotischen kitsch-distros drauf verwenden, aber da ja die entsprechenden kernel-module dank GPL immer auch im source code veröffentlicht werden müssen, kann man sich in dem fall wenigstens darauf verlassen, dass man immer auch einen kernel compilieren kann, der alle hardware-komponenten unterstützt bzw. oft sogar entsprechende unterstützung bereits im linux upstream-kernel und debian-derivaten vorhanden ist, was ja leider bei exotischerer hardware von weniger open source affinen herstellern nicht immer der fall ist.
Antwort von motiongroup:
Unabhängig davon, dass es für solche Distributionen im hier und vorfallen im bunten asiatischen Raum eine Menge Zuspruch gibt ist dein Einwand zum Thema einsehbarer Sourcecode GPL zwar richtig nur heißt das noch lange nicht, dass sich im Code selbst resp in den Zusatzpaketen kein Lauscher und keine Plaudertasche zurückgezogen hat.. schon gar bei nachinstallierten Zusätzen die über ihren Proprietären Store vertrieben werden inkl. deren nur für chinesischen Useraccounts die NONA nur für diese Freigeschalten sind.. Der Kern ja niemals das Drumherum und schon gar nicht verifizierbar und wenn nur durch Zufall entdeckt wie aktuell und generell bei allen FoS Projekten das Thema Kontrolle relativ schwurbelig angegangen wird..
Antwort von mash_gh4:
motiongroup hat geschrieben:
Unabhängig davon, dass es für solche Distributionen im hier und vorfallen im bunten asiatischen Raum eine Menge Zuspruch gibt ist dein Einwand zum Thema einsehbarer Sourcecode GPL zwar richtig nur heißt das noch lange nicht, dass sich im Code selbst resp in den Zusatzpaketen kein Lauscher und keine Plaudertasche zurückgezogen hat.. schon gar bei nachinstallierten Zusätzen die über ihren Proprietären Store vertrieben werden inkl. deren nur für chinesischen Useraccounts die NONA nur für diese Freigeschalten sind.. Der Kern ja niemals das Drumherum und schon gar nicht verifizierbar und wenn nur durch Zufall entdeckt wie aktuell und generell bei allen FoS Projekten das Thema Kontrolle relativ schwurbelig angegangen wird..
naja, dass derartiges natürlich auch unter linux möglich ist und auch sehr gut versteckt sein kann, wissen wir ja ohnehin seit ewigkeiten von div. rootkits, nur wird so etwas im linux-umfeld wenigstens weiterhin ganz klar als inakzeptables sicherheitsproblem beurteilt, während etwa google oder auch microsoft in deren open source lösungen (bspw. in VS Code od. GitHub) die telemetriedatenerhebunung und kanalisierung der vertiebskanäle (bspw. dürfen andere kompatible editoren nicht mehr auf das VS Code plugin repo zugreiffen...) in immer unappetitlicherer weise strapazieren und apple die entsprechende kommunikation mit den herstellereigenen servern gleich von vornherein in ähnlicher weise wie stealth rootkits dem netzwerkmonitoring und firewalllösungen gänzlich entzieht.
warum sollte man also vor der chinesischen konkurrenz mehr angst haben als vor all dieser unverschämtheit und dem rücksichtslosen macht- und gewinnstreben westlicher großkonzerne?
Antwort von roki100:
motiongroup hat geschrieben:
Ja aber nicht für die die sich um die Sicherheit sorgen machen…. Selbiges wie bei Deepin
wenn es um Sicherheit oder Privatsphäre, Datenklau usw. geht, dann sind die Großkonzerne hierzulande / oder westliche OS&Softwareprodukte, da kritischer zu betrachten. Und diejenigen, die das selbe sagen und beweise haben, werden als verräter usw. betitelt und von mächtige Leuten gejagt und bedroht. Normal? Nein...
Apple scheint da zwar etwas anders zu ticken bzw. die Privatsphäre der Kunden werden gut geschützt und das System auch sicher.... Ob das aber tatsächlich so ist, werden wir niemals erfahren, wir können es auch nicht wirklich untersuchen...
Antwort von motiongroup:
warum sollte man also vor der chinesischen konkurrenz mehr angst haben als vor all dieser unverschämtheit und dem rücksichtslosen macht- und gewinnstreben westlicher großkonzerne?
meine Güte Leute Leute, dass eine und das andere ist nicht in Ordnung darüber braucht man doch nichts zu diskutieren... anderes sieht die Sache schon bei den BSen aus, wenn ich mich für MS, Google oder Apple entscheide, habe ich mich dagegen entschieden etwas dagegen zu unternehmen darüber brauchen wir kein Wort zu verlieren, eben sowenig wenn ich FB, WA Insta oder Tiktok verwende... anders schau es aus wenn ich mir eine für mich Datenschutzkonforme Blase mit solchen Systemen konterkariere... wenn ich mir bedenkenlos scheiß egal was da kommen mag ohne Teilanästhesie Rektoskopieren lassen soll es so sein... Anders schauts schon um das Wissen aus, dass gerade dort der Datenschutz auf gar keiner Fahne geschrieben, im Gegenteil geradezu mit Füßen getreten wird wie auch die Menschenrechte an sich.. obwohl auch die Amis wie alle anderen Kolonialherrenrassen bekleckerten sich hier nicht unbedingt mit Ruhm...
Apple scheint da zwar etwas anders zu ticken bzw. die Privatsphäre der Kunden werden gut geschützt und das System auch sicher.... Ob das aber tatsächlich so ist, werden wir niemals erfahren, wir können es auch nicht wirklich untersuchen...
Da bin ich vollkommen bei Dir und wenn schon nicht Apple selbst Dreck am Stecken hat, haben sie genügend Tools durchgelassen die die angeblichen Datenschutzbemühungen komplett ad absurdum geführt haben ... siehe FB und Google...