#327 Oye, que el M1 está apuntito de ganarle a procesadores intel como el i7-10700K en PC estándar corriendo Windows.
https://browser.geekbench.com/v5/cpu/search?utf8=%E2%9C%93&q=windows+i7-10700k
¿Ahora dirás que la maléfica Apple también está jodiendo el rendimiento en Windows 10 en un PC estándar que no lleva ningún hardware fabricado por ellos?
Hay un poquito de artículo en ese hate que has enlazado.
Que sí, que el mismo procesador que te he dicho (i7-10700K) rinde más en un PC estándar que en un iMac, pero eso es porque los subnormales están obsesionados con la finura y sus dispostivos nunca han disipado bien el calor, habiendo bastante thermal throttling. Pero esto no es nuevo. Esto es una obsesión que tiene muchos, muchos años.
Por otro lado, Intel les ha fallado, en el sentido de que les prometen para la siguiente generación un consumo de X watios (lo que significa que se realiza el diseño del hardware para disipar tal cantidad de calor) pero al final Intel falla en su objetivo y consume Y watios, siendo Y mayor que X, con lo cual el diseño se va a la puta y no es capaz de disipar el calor suficiente. Pero vamos, que no exculpo a Apple. Yo soy el primero que odia que los Macs disipen tan mal el calor.
No es una conspiración para hacer que sus procesadores x86_64 rindan peor, no. Es una obsesión que tienen incluso desde los tiempos de PowerPC. Para más información, busca sobre el tristemente famoso Power Mac G4 Cube.
Entonces, ¿qué? ¿Decimos "qué mala es Apple por prepararse muy bien para realizar la transición a M1"?. Pues no sé, eso no me parece malo, sino precisamente lo contrario.
¿Por qué hacen la transición ahora y no antes? Pues no lo sé. Pero lo mismo tiene que ver que han tenido que diseñar un nuevo tipo de procesador que añade caraterísticas que los anteriores no tenían (como virtualización para ARM, además aceledadores de hardware de todo tipo), o trabajar Rosetta 2, y seguro que otras mil cosas, pues, hombre, ocupados han tenido que estar.
Es que la sola idea de decir que Apple ha estado jodiendo activamente sus máquinas con Intel para vender más 3 años después me parece demencial. El retorcimiento del hate es lo que tiene.
O dicho de otro modo: como convertir trifundo de la ingeniería de Apple en algo malévolo. Y luego algunos pretenden que se le tomen en serio.
Por otro lado, las afirmaciones que has realizado del asunto de la batería de los iPhones son inciertos. Al cambiarle la batería el iPhone va como el primer día. En efecto, se trata de proteger el dispositivo frente a apagones inesperados. El problema es que Apple no informó de lo que hacía. Estoy de acuerdo con eso, es un problema que no informara. Pero no es la conspiración peliculera que algunos se montan.
Algunos tienen algún tipo de obsesión con Apple, porque si no, no me explico que vengan a este hilo a desviarlo con cosas así.
Apple no es perfecta y tiene muchos problemas. Aún así, tiene algunas virtudes.
Sigamos conversando si queréis, pero por favor, seamos excelentes los unos con los otros.
#332Agradecido:M1 está apuntito de ganarle a procesadores intel como el i7-10700K en PC estándar corriendo Windows
> Geekbench.
Pues eso. xD Léete bien el artículo, que es crema anda.
#333 Lo que ya he dicho antes, ya iremos viendo qué pasa cuando salgan otras pruebas y comparativas cuando los clientes vayan recibiendo los cacharros.
#332Agradecido:Por otro lado, Intel les ha fallado, en el sentido de que les prometen para la siguiente generación un consumo de X watios (lo que significa que se realiza el diseño del hardware para disipar tal cantidad de calor) pero al final Intel falla en su objetivo y consume Y watios, siendo Y mayor que X, con lo cual el diseño se va a la puta y no es capaz de disipar el calor suficiente. Pero vamos, que no exculpo a Apple. Yo soy el primero que odia que los Macs disipen tan mal el calor.
El diseño es pura mierda, no le metas la culpa a Intel cuando otros portátiles tienen Intel/Ryzen rindiendo con un mayor consumo y potencia xD.
Min 0:44
#332Agradecido:No es una conspiración para hacer que sus procesadores x86_64 rindan peor, no. Es una obsesión que tienen incluso desde los tiempos de PowerPC. Para más información, busca sobre el tristemente famoso Power Mac G4 Cube.
Tienes la demostración cogiendo un ipad pro y un macbook. Ambos usan el mismo sistema, agnóstico a la arquitectura, y de rendimiento no van para nada igual. A propósito o no, ahí lo tienes. Y la culpa no es de Intel xD
#333eondev:Léete bien el artículo, que es crema anda.
La verdad, de crema me parece poco.
Como ya he dicho tropecientasmilveces, hay que esperar a ver más comparativas de rendimiento una vez que lleguen los cacharros a la gente. De ahí se deduce que queremos ver más cosas aparte de GeekBench.
No todos los usuarios de Apple somos noobs posturetas a los que le importa que la funda de su iPhone tenga un hueco para que se vea el logo de la manzana. Algunos incluso usamos 3 o más sistemas operativos de manera diaria.
Como ya he dicho, estamos ansiosos de ver si las promesas se mantienen una vez que los cacharros lleguen a la gente. Algunos pensamos que sí, otros piensan que no.
Pero desde luego, si te fijas, mi actitud no es la de estar cegado por el brillibrilli de la manzana.
#335eondev:Tienes la demostración cogiendo un ipad pro y un macbook. Ambos usan el mismo sistema, agnóstico a la arquitectura, y de rendimiento no van para nada igual. A propósito o no, ahí lo tienes. Y la culpa no es de Intel xD
No sé si te entiendo.
#336 Sí, pero metes a Intel con que ellos dicen X pero luego es Y xD. Pues eso.
#332Agradecido:Hay un poquito de artículo en ese hate que has enlazado.
No tiraré de falacia de autoridad, pero el pavo este sabe y controla un cojonazo y medio. No es que vaya a misa, pero no suele equivocarse en las conclusiones que saca y sus razonamientos tienen bastante peso. Además, menciona lo que ya se viene hablando en este hilo, coprocesadores especializados en realizar tareas que benefician su puntuación en el geekbench/wathever benchmark. La imposibilidad de medir su rendimiento real cuando salgan los equipos por ser un sistema cerrado y hacerlo sólo vs los anteriores Mac, con thermal throtling, un SO menos optimizado a la par de un micro de bajo consumo en un arquitectura como x86.
Que sí, que será un pepino de ARM en comparación a los que hay ahora mismo (o no, será como el del ipad pro), pero aquí la peña salta porque le sangra los oídos al oir que Apple ha sacado un ARM más potente que una 1080TI y un intel i7 10700k xDDDDD. No es hate colega, es que es demasiado cantoso todo esto xD
#338eondev:Sí, pero metes a Intel con que ellos dicen X pero luego es Y xD. Pues eso.
Pero es que eso es un hecho constatable: que Intel anuncie que la siguiente generación consumirá X y al final consumió Y. Problema derivado de que Intel todavía no ha conseguido bajar de los 14 nm.
#338eondev:La imposibilidad de medir su rendimiento real cuando salgan los equipos por ser un sistema cerrado
Es un sistema tan cerrado que Big Sur sigue teniendo la certificación UNIX y puedes ejecutar todo el código que quieras.
#338eondev:Apple ha sacado un ARM más potente que una 1080TI
¿Quién ha dicho eso?
Edito: Ah, pues no dicen eso, pero sí dicen que supera a la 1050 Ti y a la RX 560 en el test GFXBench 5.0. Pero, ¡tranquilo!, no soy un zombi que pueda pensar que eso significa que el M1 es mejor que una 3070. De nuevo te recuerdo que en la presentación del otro día lo comparaban únicamente a gráficos integrados de Intel. Eso sí, es impresionante que el M1 con 10W pueda superar en algunas pruebas a gráficas que consumen 75W y procesadores que consumen 45W.
https://www.macrumors.com/2020/11/16/m1-beats-geforce-gtx-1050-ti-and-radeon-rx-560/
Edito otra vez:
Edito otra vez:
#338eondev:Que sí, que será un pepino de ARM en comparación a los que hay ahora mismo
Bien, bien, poquito a poco.
#82 y de hecho, lo sorprendente es que no hayan subido el precio, que sería lo lógico si acabas de tirarte a la piscina a fabricar un procesador propio...
No creo que les vaya a salir más barato que usar un procesador Intel donde tienen un coste 0 en desarrollo, e Intel a su vez por economía de escala puede fabricar muchísimo más barato que Apple y amortizar muchísimo más rápido sus inversiones por lo que pueden permitirse un precio unitario menor del componente.
Ni me sorprendería que tengan más margen de ganancia usando procesadores Intel que con los suyos, que además de la fabricación se han tenido que desarrollar que es lo caro realmente... .
#343 pues lo acabo de ver jaja disculpa
De todas maneras la 1050ti requiere high sierra o inferior, tampoco utiliza la api de metal... así que ¿no es una comparación justa?
#347 ¿a qué te refieres con que es el procesador de iPhone y iPad?
¿Qué tiene del A14 Bionic?
Al margen de que sean ARM.... así por encima me parece que no tienen mucho que ver uno con otro.
Pregunto en serio, estoy muy desconectado últimamente de estos temas.
#352 Si hubieran metido el t2 (que esta en los macs de antes, no en teléfonos y tablets) Se les cae la cara de vergüenza y más de un artículo se lo habría echado en cara. Es un chip que ya se ha "vulnerado"
¿Qué ha aprovechado lo que ha aprendido de desarrollar los A y demás? Pues claro, como cualquier empresa.
#352 Hombre teniendo en cuenta que el M1 es un SOC, todo. Todo va integrado en un único chip. Que evidentemente han aprovechado "partes" de sus desarrollos anteriores es evidente, nadie empieza un chip desde 0 cada vez (ni Intel ni AMD) pero es como decirme que un i10 es igual que un i9 porque están basados en lo mismo.
El diseño interno del SOC dista bastante del del A14, empezando por tener núcleos de alto y bajo rendimiento combinados y con una potencia bastante superior al de los A14.
#354 El A14 tambien tiene cores de high y low performance... Yo creo que aun no se sabe a ciencia cierta a nivel arquitectura como son entre si, pueden ser iguales lo que un melon al titanic o como 2 granos de arena, habra que esperar
#356mongui:El A14 tambien tiene cores de high y low performance...
De hecho es algo que se lleva haciendo en móviles desde siempre xD
#358 Te dije el "creo", yo no vengo con estamentos personales, solo factos, lo mismo que el pato de arriba se cree que no se que ya lo llevan de hace tiempo. En una cpu tan nueva ni de coña hay copia/pega, lo sabe cualquiera, habra trazas que hayan portado del A14 por materia de portabilidad de apps y ecosistema entre OS X y iOS pero todo lo demás es nuevo seguro, aun asi, hasta que no pase un tiempo no se sabra mucho mas de las filtraciones mostradas
#358 Para encodificar h264? Sobre el papel si, la realidad es que no, esta, como en resto de cosas, varias generaciones por detrás de nvidia. Es como compararlo con una serie GTX 6XX
Por eso nadie en su sano juicio utiliza AMD en entornos finalistas.
Bueno y no se usaría en ningún entorno de no ser por Apple.