News Apple-Event: Neue Gerüchte zu MacBook Pro und Mac mini mit M1X

@foo_1337

Also kurze Info für dich und für alle dies es interessiert... Ich kann mit MonitorControl und der App Lunar den LG steuern, aber nur wenn ich von USB-C auf HDMI gehe... Rein HDMI geht nicht, wird wahrscheinlich vom Dock geblockt. Da ich aber am Desktop das Dock und einen freien USB-C brauche, muss ich wohl oder übel bei den Boxen bleiben.
 
  • Gefällt mir
Reaktionen: foo_1337
foo_1337 schrieb:
Dateifreigaben macht man unter Windows direkt im Explorer, bei macOS in den Systemeinstellungen.

Ack. kA, warum sie das nicht machen. Eine gute Möglichkeit ist dieser:
https://github.com/MonitorControl/MonitorControl
Die Dateifreigaben in der Systemsteuerung sind ein Krampf. Für den Nutzer des Mac wird z.B. auch immer gleich der ganze Mac frei gegeben, statt der Ordner, die man frei geben will - ist eine gänzlich andere Philosophie, als unter Windows.
Monitor Control funzt nicht auf dem M1, soweit ich weiß und unterstützt nicht alle Monitore - bei mir ging nichts damit - hab‘s probiert.
Cool Master schrieb:
Also mein Mac Mini kann das ohne Probleme seit Tag 1 :confused_alt: Man muss nur unter "Ton" den Bildschirm auswählen.
Nein, kann er nicht - digitalen Ton haut der immer in voller Lautstärke an den Monitor raus. Den Ton kann man zwar in der jeweiligen App regeln, oder am Monitor selber, es gibt aber keinen „Master“, wie es bei Windows schon immer eine Selbstverständlichkeit war. Du kannst einstellen, worauf er ausgibt, aber bei Digitalkram nicht, wie laut. Wenn Du z.B. auf den Speaker des MacMini stellst, kannst du regeln, wenn Du aber auf einen Monitor am HDMI/DisplayPort stellst, nicht. Startet man eine App, steht die Lautstärke immer auf volle Pulle und das ist nervig! Es gibt 2 Lautstärkeeinstellungen (auch in Windows) - 1. die in der App und 2. die Systemlautstärke. MacOS kann nur anloge Systemlautstärke zentral regeln, Digitalkram nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mm19
@crackett

Interessant. Das ging auf jeden Fall schon bei mir. Da bin ich 100% sicher. Nun geht es in der Tat nicht mehr ich sehe beim Bildschirm nur ein Kreis mit Strich drin. Aber gut stört mich auch nicht so stark, da ich seit einigen Jahren mein Mixer habe der den Ton vom Bildschirm abgreift. Aber wie gesagt bei mir ging das auf jeden Fall schon mal. Kann aber auch sein, dass das noch bei meinem 2012er Mini der Fall war.
 
Lugia Prophet schrieb:
nicht ansatzweise auch nur nahe an meine 6800 XT
Bei 30W mobile APUs und einer 300W GPU über Grafikperformance zu sprechen.... ;)
 
  • Gefällt mir
Reaktionen: Cool Master
Der Witz ist halt, dass das schon erwähnt wurde und klar ist. Der zweite Witz aber, das vergessen wird, was (Software)Optimierung und technischer Fortschritt bringen. Der VIC-II um 1983 rum schafft schließlich wegen Fortschritt auch nicht, was heutige Chips leisten, ne? Wir bleiben ja technologisch nicht stehen.

Da dürfen solche Vergleiche durchaus kommen, weil irgendwann darf man ja hoffen, dass das als Stand auch mal erreicht wird. Dass das dann neue GPUs gibt die vermutlich schon ihre eigenen Netzteile fordern? Geschenkt, ne?
 
Lugia Prophet schrieb:
Da dürfen solche Vergleiche durchaus kommen, weil irgendwann darf man ja hoffen, dass das als Stand auch mal erreicht wird.
Hier wird ein SoC aus 2020 (M1) und dessen Aufbohrung 2021 (M1X) mit einer Top-Notch dGPU aus 2020 verglichen. Klar kannst du hoffen, dass solch ein Stand mit einem Zehntel der Leistungsaufnahme innerhalb eines Jahres erreicht wird. Die Wahrscheinlichkeit ist aber gleich null.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: HerrRossi und Nordwind2000
foo_1337 schrieb:
Hier wird ein SoC aus 2020 (M1) und dessen Aufbohrung 2021 (M1X) mit einer Top-Notch dGPU aus 2020 verglichen. Klar kannst du hoffen, dass solch ein Stand mit einem Zehntel der Leistungsaufnahme innerhalb eines Jahres erreicht wird. Die Wahrscheinlichkeit ist aber gleich null.

Der nächste Witz ist, wenn man sich den Text durchließt - deshalb mein VIC-II Beispiel - keine Zeitspanne von ein Jahr angegeben wurde. Irgendwann heißt schließlich nicht "innerhalb der Frist von einem Jahr". Davon ab, dass das "einfacher" wäre ggf passenden Support für eGPUs zu aktivieren.

Ist also immer eine Sache dessen, wie kurz man zitiert und Rest ignoriert für ein passendes Narrativ.
 
Die iGPU des M1 Chips schafft 2,6 TFLOPs, das ist ungefähr soviel wie eine HD 7870 GHz Edition mit einer TDP von 175W geliefert hat und mehr als die modernen iGPUs von AMD leisten (ca. 2 TFLOPS). Das finde ich für einen Chip mit einer Gesamt-TDP von 20-24W schon sehr beachtlich.

Und wenn der M1X die GPU-Kerne verdoppelt dann reden wir über eine Rohleistung, die mit einer RX 5500 XT auf Augenhöhe liegt und die eine GTX 1660 uebertrifft. Und falls es einen Vollausbau mit 32 GPU-Kernen gibt, dann sind wir schon auf dem Niveau einer RX 6600 XT oder RTX 2080 angekommen.
 
  • Gefällt mir
Reaktionen: AlanK, foo_1337 und Cool Master
Aber zocken kann ich damit doch immernoch nicht weil auf Apple kaum Games laufen oder hat sich das geändert?
 
Zocken kann man schon… Kommt halt wie immer auf die eigenen Ansprüche an… WoW läuft sogar sehr gut auf Stufe 8 bei WQHD.

Und es ist wie immer… Wenn die Spieleentwickler die Metal—Engine nutzen würden bzw. überhaupt nutzen würden, gäbe es auch mehr Games und eine bessere Leistung. Ist halt irgendwo ein Thema vom Willen.
 
  • Gefällt mir
Reaktionen: foo_1337
Nordwind2000 schrieb:
Ist halt irgendwo ein Thema vom Willen.

Na ja ich denke der Wille ist da. Das Problem ist der Umsatz. Man brauch erstmal die Entwickler für MacOS und muss sich sicher sein, dass diese Entwickler sich tragen können. Wenn das nicht der Fall ist macht es für ein Unternehmen einfach kein Sinn für eine Plattform zu entwickeln die rund 8%(?) Marktanteil hat.
 
@Cool Master

Aber iegndwann muss man ja mal anfangen... Klar ist die Hardware in den letzten Jahren, jedenfalls 60% nur mit iGPU ausgeliefert worden, und damit bedingt spielfähig, aber der M1 hat es vorgemacht, und meistens geht die Entwicklung ja weiter nach vorne.. Sollte Apple die Leistung steigern können und nicht die nur Performance der CPU-Cores, sondern auch der GPU, dann könnte es ziemlich schnell gehen.

Für die iOS-Geräte gibt's massig Games, die sich jetzt eigentlich adaptieren lassen. Aber harren wir der Dinge die da kommen.
 
Jetzt bin ich zwar nicht unbedingt in einem MBP interessiert, aber es wäre schon gut, wenn Apple hier wirklich deutlich bessere Webcams bringt. Das würde (hoffentlich) den HPs, Dells und Lenovo's dieser Welt etwas Druck machen, das auch zu tun.
Frage (als nicht-Mac User): sind die Webcams by MacBooks intern über einen USB Bus angebunden? Wird bei PC Laptops ist das wohl so, und wird oft als Grund genannt, warum nicht einfach deutlich bessere (und trotzdem billige) Selfie Cams von Smartphones verbaut werden können.
 
eastcoast_pete schrieb:
Frage (als nicht-Mac User): sind die Webcams by MacBooks intern über einen USB Bus angebunden? Wird bei PC Laptops ist das wohl so, und wird oft als Grund genannt, warum nicht einfach deutlich bessere (und trotzdem billige) Selfie Cams von Smartphones verbaut werden können.
Die Anbindung ist völlig egal. Die Selfie Cams von Smartphones sind zwar billig, aber deutlich teurer als das was in den meisten Notebooks verbaut wird. Dazu kommt, dass die Selfie Cams in Smartphones mittlerweile von elektronischen Helferlein profitieren. Das ist bei den M1 Macbooks auch so. Daher sind die qualitativ auch besser als die der Intel Macbooks, obwohl die selbe crap Cam verbaut wurde.
 
Ich hab mir ein MBP 2020 M1 von Rebuy geholt, die Webcam braucht unbedingt ein Update. Was ich ihr zu Gute halte sind die Farben, sie schmeichelt dem Gesicht mit einer warmen und homogenen Abstimmung, während die beim Surface Laptop zum Beispiel rote Stellen im Gesicht sogar verstärkt wiedergibt. Die Konkurrenz macht es nicht besser, trotzdem sind 720p einfach schwach für so ein Premiumprodukt.

Bin gespannt auf morgen, mein Modell werde ich sowieso umtauschen, weil es starkes BLB in den unteren Ecken hat. Finde es schade dass die Basisausstattung wahrscheinlich so hoch angesetzt ist, leistungsmäßig brauch ich nicht mehr als den M1, will eigentlich nur das 120 Hz Mini-LED-Display. Bei meinem Surface Laptop konnte ich wenigstens noch auf 75Hz overclocken. Und ich bin mir sicher dass das Display dem nächsten Air mit M2 vorenthalten wird.
 
Nordwind2000 schrieb:
Aber iegndwann muss man ja mal anfangen...

Warum? Wie gesagt die Entwickler wollen Geld verdienen. Für MacOS muss man aber erst speziallisten einstellen die nicht gerade 2,50 € kosten. Dazu kommt mit 2-3 Entwickler wie für eine Mobile App ist es da nicht getan. Da muss ein "Team MacOS" eingestellt und eingerichtet werden. Geht man mal von konservativen 70.000 € je Entwickler aus sind das bei 10 Entwicklern, je nach Standort, rund 800.000 bis 1.000.000 € an Kosten nur für Gehalt und Sozial-Abgaben. Dazu kommt noch die HW (es müssen mehrere Generationen gekauft werden zum Testen) und andere Variable Kosten ggf. Engine Rewrites um die Engine an MacOS anzupassen. Die Kosten müssen halt erstmal rein kommen und da kann ich jedes Studio verstehen wenn sie sagen wir machen lieber nur Windows (und ggf. Linux).

Nordwind2000 schrieb:
Klar ist die Hardware in den letzten Jahren, jedenfalls 60% nur mit iGPU ausgeliefert worden, und damit bedingt spielfähig, aber der M1 hat es vorgemacht, und meistens geht die Entwicklung ja weiter nach vorne.. Sollte Apple die Leistung steigern können und nicht die nur Performance der CPU-Cores, sondern auch der GPU, dann könnte es ziemlich schnell gehen.

Wie gesagt das Problem war noch nie die Leistung. Die Leistung ist schon seit Jahren da dank eGPUs. Fakt ist aber die Entwickler wollen es einfach nicht machen, da es sich wohl einfach nicht lohnt. Zumindest nicht für AAA Spiele. Ich mein schau dir mal die Liste an:

https://www.digitaltrends.com/gaming/best-mac-games/

Da kannst du im Prinzip an einer Hand zählen wie viele AAA Games da dabei sind. MacOS war halt noch nie wirklich dafür bekannt für Spiele ausgelegt zu sein, daher kann ich es durchaus verstehen wenn die Studios sagen nö juckt uns nicht. Ich mein man sieht ja wie lange es gedauert hat bei Linux. Das kommt die letzten 2-3 Jahre langsam in Fahrt.
 
Irgendwo war mal zu lesen, dass man keine Smartphone-Kameras im Laptop nutzen kann oder will, weil die zu tief bauen, um in die dünnen Gehäusedeckel zu passen. Dabei ging es lediglich um 1-2mm und eine Kamerabeule wäre unschön.
 
Cool Master schrieb:
Wie gesagt das Problem war noch nie die Leistung. Die Leistung ist schon seit Jahren da dank eGPUs. Fakt ist aber die Entwickler wollen es einfach nicht machen, da es sich wohl einfach nicht lohnt.
Selbst für Poweruser waren eGPUs immer von Problemen geplagt, wie unterdurchschnittlicher Performance (~20% niedriger), Stabilität etc, und auch viel zu teuer.

Dass Leistung vorhanden ist, bringt ja nichts wenn sie nicht auch verbreitet ist. Was mich z.B. an Windows Laptops stört, ist dass die mögliche Leistung oft nicht vorhanden ist, weil z.B. bei den günstigen Modellen mit iGPU nur ein Riegel verbaut ist (Surface Laptops), oder die Kühlung unterdimensioniert ist. Würde es alle Spiele für Mac geben, wäre ein MacBook Air für 900€ konkurrenzlos.

Da sich nun und wahrscheinlich auch in Zukunft, Macbook und iPad wie beim M1 den Prozessor teilen, kann sich das ziemlich schnell ändern.
 
nr-Thunder schrieb:
Würde es alle Spiele für Mac geben, wäre ein MacBook Air für 900€ konkurrenzlos.
Das ist imho aber auch etwas übertrieben, eine 1650 Max-Q hat ungefähr die Rohleistung der iGPU des M1.
 
Zurück
Oben