#300 Pero colega, a ti no te escama que sean 3 benchs contados? Porque no han usado uno de propósito general de sobra conocido en pc? Luego cogerá mi hermano engañado por todos esos benchs de números super altos y se tirará a renderizar una escena 3D y se cagará en la puta porque no va y no entiende como es posible si es más potente que una 1080Ti y +30% más potente que la CPU de un imac pro.
Y por cierto, no es innovar, como dicen en un enlace que he pasado por aquí ya, es Apple adaptando su hardware porque el diseño de los chasis de sus pcs son una mierda y 0 eficientes disipando calor. Y otro lo había dicho por el hilo ya, con el macbook air apple se echó a perder, diseño > utilidad
#301 ¿Cuándo en la puta vida ha usado Apple un benchmark oficial para comparar nada? ¿Es más qué sentido tiene hablando de sistemas operativos diferentes y arquitecturas diferentes? Y a lo mejor tu hermano se sorprende cuando utilice su programa de renderizado 3D en su nuevo Mac con M1 optimizado para Apple Silicon y las API's de Metal y le funciona mejor que en su PC Windows. Que esto no va de potencia "Bruta" si no de optimización arquitectura/hardware/software/drivers.
Y sí, para empezar en Affinity Photo por ejemplo los tests de momento apuntan a un mejor rendimiento al editar fotografías, aplicar efectos y renderizados que builds anteriores en Macs con ordenadores con una 1080Ti.
La semana que viene veremos aplicaciones reales.
#302 Pues según para qué tareas (como aplicar efectos en fotos, edición de vídeo o renderizado 3D), ¿por qué no? Algunos seguís pensando que esto se trata todo de potencia bruta como si fuésemos a jugar al Crysis.
Acaso una Nvidia Quadro no da más rendimiento que una Nvidia 2080 Ti en muchísimas tareas? Y sin embargo para jugar a juegos se hunde en la mierda.
Lo dicho, la semana que viene hablamos.
#304 Entonces qué cojones hace la peña aclamando que en general hay un +30% y siendo superior a una 1080Ti cuando lo que se está comparando son tareas específicas con instruciones/chips metidos en el SOC para realizar esas tareas? No hay nada que alabar, de hecho se pasa por encima para no decir muy alto que es algo muy concreto. Es como si yo diseño un chip para encodear h 256 y digo que es más potente que un i7 tope gama porque en single core es más potente y resulta que no, no es más potente en single core, da más puntuación en esa tarea por core, nada más porque ha sido diseñado para ello. Es mentira cochina que sea un +30% que la CPU más rápida en single core. Porque decir eso es hacer referencia al propósito general y ni de coña una CPU a 10W va a rendir más que una a 45 o 90. Por muy fuerte que quieras que sea eso, no existe la optimización mágica ni Metal es la panácea de nada.
Si quieres decirlo, dilo en grande y detallado en el titular, no seas críptico y referencies un bench y punto.
#305 ve diciendole adios a Windows en los nuevos Mac. Parallels ha dicho que estan trabajando en una version ARM, pero nativo no vas a poder correrlo.
#306 lo mas gracioso es que los Macs ya tenian procesado por hardware de h265 gracias al T2, que es lo que seguramente esta maquillando los benchmarks del M1: https://appleinsider.com/articles/19/04/09/apples-t2-chip-makes-a-giant-difference-in-video-encoding-for-most-users
el rendimiento en portátiles se debería medir por cantidad de pestañas de chrome con un meet abierto.
¿Alguien duda de que si Apple pudiera hacer publicidad dando nombres se los callaría como está haciendo? Pues eso.
#314 Comparando scrubbing (si es que sabes lo que es) en Final Cut Pro contra iMovie. Eres el target perfecto de Apple.
Big Sur ya está disponible.
Aunque hay mucha gente intentando descargarlo, así que va bastante lento.
Menuda mezcla más rara hay en este hilo
Expertos con una cruzada contra un chip del que apenas hay pruebas
Expertos que parecen a sueldo a favor de un chip del que apenas hay pruebas
El clásico enmierdador que viene a insultar y poner memes que ya están repetidos en otras partes del hilo
Gente que pregunta cosas que no vienen a cuento en este hilo, como el que pregunta que si te trae algo del Mercadona
Gente que no tiene ni idea pero odia a Apple
Gente que no tiene ni idea pero ama a Apple
Y yo, que soy un payaso y vengo a comentar esto.
Muy MV todo, Os quiero.
Breve hilo sobre la evolución de los procesadores ARM.
¿Sabíais que Apple co-fundó la empresa Advanced RISC Machines en 1990?
La CPU más potente del mundo...
Your Computer Isn't Yours
Resulta que en la versión actual de macOS, se envía a Apple un hash de todos y cada uno de los programas que abres, y cuando los abres. Mucha gente no se dio cuenta de esto, porque es silencioso y falla instantáneamente cuando estás desconectado, pero hoy el servidor se volvió muy lento y no alcanzó la ruta del código de fallo rápido, y las aplicaciones de todos los usuarios dejaron de abrirse si estaban conectados a Internet.
Q: Is this part of macOS analytics? Does this still happen if I have analytics off?
A:This has nothing to do with analytics. It seems this is part of Apple’s anti-malware (and perhaps anti-piracy) efforts, and happens on all macs running the affected versions of the OS, independent of any analytics settings. There is no user setting in the OS to disable this behavior.
Q: When did this start?
A: This has been happening since at least macOS Catalina (10.15.x, released 7 October 2019). This did not just start with yesterday’s release of Big Sur, it has been happening silently for at least a year. According to Jeff Johnson of Lap Cat Software, this started with macOS Mojave, which was released on 24 September 2018.
Each new version of macOS that comes out, I install on a blank fresh machine, turn analytics off and log into nothing (no iCloud, no App Store, no FaceTime, no iMessage) and use an external device to monitor all of the network traffic that comes out of the machine. The last few versions of macOS have been quite noisy, even when you don’t use any Apple services. There have been some privacy/tracking concerns in Mojave (10.14.x), but I don’t recall if this specific OCSP issue existed then or not. I have not yet tested Big Sur (keep in touch for updates), and the concerns about user firewalls like Little Snitch and the Apple apps bypassing those and VPNs have come from reports from those who have. I imagine I’ll have a big list of issues I find with Big Sur when I install it on a test machine this week, as it just came out yesterday and I don’t use my limited time testing betas that are in flux, only released software.
Recomiendo leer detenidamente lo que dice el articulo y unirlo a lo que hace apple con su hardware y la relaccion con los clientes y terceros (por ejemplo empresas de reparación o cualquier ser vivo que manipule la maquina).
Vosotros veréis si entráis en esa dinámica. El titulo del articulo lo deja bien claro, la maquina no es tuya, el cliente solo renta la licencia para usarla, su uso esta monitorizado en remoto por la compañia, con los nuevos modelos sera virtualmente imposible de reparar dada la serializacion de componentes, e imposible upgradear.
De lo que habla el articulo es sobre el DRM mas instrusivo que existe o inventado hasta el momento.
Sobre #325 :
#280r2d2rigo:ahora va a resultar que un SoC con un TDP de 10W va a tener mejor rendimiento global (y sostenido) que una CPU de 45W + GPU de 150W.
Lisa, en esta casa se obedecen las leyes de la termodinamica.
Nadie ha dicho que los M1 sean comparables a gráficas dedicadas. Es más, Apple únicamente lo ha comparado a las gráficas integradas de Intel (pero sin decir el nombre, al comparar con la generación anterior de algunos de sus productos). Pareciera que tú metes los 150W de una gráfica dedicada en la comparativa como para poder ofenderte aún más del humo de Apple
Y, por más que te cueste creer, en Anandtech le dan credibilidad a las palabras de Apple de que el M1 a 10W supera en potencia de cálculo a los procesadores de portátiles de Intel (incluyendo al mejor de todos) en cualquier rango de consumo energético. ¿Por qué? Porque los procesadores del Developer Transition Kit y de los iPhone e iPad están cerca de lograrlo. Si el M1 es tan solo un poco mejor, lo logrará. Teniendo en cuenta que el M1 funciona a 10W mientras los anteriores a 5W… pues se ve como algo alcanzable.
De todas formas, como ya te han dicho en #282, el consumo energético no tiene por qué ser un indicativo directo de la potencia de cálculo, y menos aún cuando se trata de comparar diferentes arquitecturas.
En cualquier caso, a ver si llegan pronto los equipos con M1 a los clientes y empezamos a ver comparativas de todo tipo.
Como alguno que otro ya ha dicho en este hilo, esto puede ser bueno para toda la industria. Podría forzar, animar o inspirar a otros a dar más rápido el cambio a arquitecturas ARM, o incluso podría forzar a AMD e Intel a realizar cambios más agresivos y atrevidos. Ya se verá. Lo mismo queda en nada.
Pero, potencialidad, hay.
#326Agradecido:En cualquier caso, Apple anunciado cambios sobre este asunto
Y de nuevo, tras otro escándalo otra vez, no te canta? O cómo lo van a solucionar el usuario medio de Apple se lo perdona? Como cuando capaba el rendimiento de los iphone más viejos para que te comprases los nuevos?
A mí ya de primeras, habiendo leído tu comentario me escama que un procesador emulado sea más rápido que uno físico, cojo tiro a ver si Urian ha escrito algo al respecto y pam, oro. Voy a echar leña al fuego referenciando a alguien que sabe de lo que habla.
Enlace: http://disruptiveludens.com/game-over-apple-feedback
En concreto, hay que ir a la respuesta del comentario #3
. Recomiendo encarecidamente leer el artículo, es corto.
Resumen rápido y mal hecho, si queréis detalles al enlace de arriba:
#327 No capaba el rendimiento de iPhones viejos, sino los que tenían en mal estado la batería, independientemente de cuánto tiempo tuviera el iPhone