Spectre met les freins sur le CPU need for speed | ZDNet

Alléluia! Si tout est bon à venir à partir de la révélation de l'Effondrement et le Spectre, il sera reconnaissant que la performance augmente en silicium ont été faites sur une fondation de sable, et la sécurité de la marée.

Au revoir ridicule comparaisons faites pour des raisons spécieuses pour faire de nouvelles silicium qui n'est pas beaucoup plus rapide que l'année dernière silicium apparaissent beaucoup mieux.

Affaire au point, à partir de douze mois, quand Intel a élargi son Kaby Lac de la famille:

Pour sa série H core puces, Intel est vantant 20% d'amélioration de la productivité", mais que la comparaison est contre un 2013 22 nanomètres i7-4700HQ fonctionnant à une fréquence de base de 2,4 GHz et utilisant des 8 go de mémoire DDR3 par rapport à la 14nm i7-7700HQ de course à 2,8 GHz et d'emballage de 16 go de mémoire DDR4.

Afin de promouvoir un cinquième d'amélioration de la stat, Intel avait de déterrer un vieux morceau qui a été fabriqué sur un processus de 1,5 x fois plus grand, utilisé de la mémoire DDR3 au lieu de DDR4, et a frappé deux fois plus de mémoire dans le nouveau système, pour faire bonne mesure.

Mais en 2018, nous avons la possibilité de poser une question supplémentaire: Est la puce de sécurité?

La combinaison de l'Effondrement et le Spectre va forcer des changements à la façon dont les Processeurs sont conçus et fonctionnent, et jusqu'à ce que les correctifs dans la silicon apparaissent, on se retrouve avec des bugs dans les logiciels qui auront un impact sur les performances pour une "vraie" classe de tâches de calcul.

Prendre de l'expérience d'Epic Games, qui a connu un beau graphique de la façon dont l'Effondrement des correctifs étaient seuls frapper son utilisation de l'UC.

La comparaison de l'exemple cité ci-dessus, dans le cas d'Epic Games, il pourrait être dit que grâce à un Effondrement de ses systèmes sont maintenant en jouant dans la même gamme que la marque de nouveaux silicium à partir de 2013. Voilà pour une demi-décennie de eeking à un seul chiffre pour cent des augmentations de débit.

Même le meilleur des cas mis en avant par Google, qu'il n'y a aucun effet significatif sur la performance de son Retpoline patchs, que l'impact est encore estimée à 5 à 10 pour cent pour le "bien à l'écoute des serveurs" de moins en moins la commercialisation conviviale de s'engager pour le projet LLVM. Pour statiquement des applications C++ qui ont de nombreux changements de contexte, le géant de la recherche a vu les frais généraux de 10 à 50%.

Évidemment, le réel des frais généraux expérimentés par les utilisateurs ne seront connues qu'en rétrospective, mais ils existent, et certaines applications sera exécutée contre eux.

Dans un avenir proche, s'attendre à plus d'arguments sur l'exactitude et à la sécurité de processeurs que les arguties sur qui a le plus de cœurs ou turbo modes ou les plus gigahertz. Parce que ce qui est le point culminant à environ 20 pour cent de la performance de l'écart par rapport à la concurrence si un autre vendeur peut simplement à une preuve de concept qui montre le plus rapide de la puce est sensible à un canal latéral attaque?

C'est une façon différente de penser sur les processeurs, et reflète qu'une grande partie de l'informatique qui se passe maintenant sur du matériel partagé loin dans le cloud, et de résoudre les problèmes qu'il amplifie à partir de l'ancien monde de la local de matériel dédié.

Matériel,De sécurité de la TÉLÉVISION,La Gestion Des Données,CXO,Les Centres De Données