Archives par mot-clé : Cloud

Ordinateur Quantique: faisons le points mi-2017 !

La semaine dernière, je vous présen­tais les plans d’un ordi­na­teur quan­tique open-source, une pre­mière dans le domaine ! Bon, ça reste rel­a­tive­ment théorique tout de même puisque ce même ordi­na­teur n’a pas encore été con­stru­it, sur ces bases. Aujourd’hui, nous allons par­ler des dernières avancées chez Google et IBM avec cette fameuse course  à la supré­matie quan­tique ! Et puis, nous ver­rons que l’Europe tend vers une autre stratégie: le bio-ordi­na­teur molécu­laire.

Con­tin­uer la lec­ture de Ordi­na­teur Quan­tique: faisons le points mi-2017 !

Hadoop et Spark de la fondation Apache: Du Big Data Distribué au Machine Learning

Je vous avais déjà par­lé d’Hadoop dans cet arti­cle sur “Lim­ites des SGBDR pour le Big Data, NoSQL et NewSQL”. Hadoop est un frame­work libre et open source écrit en Java des­tiné à faciliter la créa­tion d’applications dis­tribuées pour le stock­age de don­nées, per­me­t­tant aux appli­ca­tions de tra­vailler avec des mil­liers de nœuds et des pétaoctets de don­nées ! Rien que ça… Et Spark ? C’est un peu la même chose… en mieux ? Oui et Non… je ne peux pas répon­dre sans vous présen­ter le tout. C’est pas si com­pliqué vous allez voir. Et cerise sur le gâteau, on va par­ler de Machine Learn­ing égale­ment !

Con­tin­uer la lec­ture de Hadoop et Spark de la fon­da­tion Apache: Du Big Data Dis­tribué au Machine Learn­ing

Sheep-It: La Blender Render Farm gratuite pour tous !

J’étais per­suadé de vous en avoir par­lé dans un arti­cle précé­dent, mais à la demande d’un pote qui a ren­con­tré un prob­lème par­ti­c­uli­er, je lui ai répon­du qu’il ne lisait pas mes posts… et j’avais tort ! J’ai pour­tant rejoint le pro­jet fin 2013 — et je ne vous en ai jamais touché un mot — bon, y-en a prob­a­ble­ment qui ne con­nais­sent pas, alors je vous fait une petite présen­ta­tion avec un exem­ple à l’appui.

Pour en revenir à ce pote, il me demandait comme il pou­vait ren­dre son ani­ma­tion Blender de près de 10.000 images alors qu’il met­tait 5 min­utes env­i­ron par image pour cal­culer chaque image (en moyenne). Si on fait le cal­cul, son ani­ma­tion sera prête dans un peu plus d’un mois ! Alors, il y a une solu­tion: soit il change de machine pour acheter un … je sais pas un super­cal­cu­la­teur ? Ou alors, il utilise une ren­der farm ! Kesako ?

Con­tin­uer la lec­ture de Sheep-It: La Blender Ren­der Farm gra­tu­ite pour tous !

Tensor/Tensorflow: le processeur de Google pour l’Intelligence Artificielle!

Google avait déjà com­mencé à con­stru­ire de nom­breux élé­ments pour ses cen­tres de don­nées.  Il conçoit main­tenant ses pro­pres processeursTen­sor ou plutôt Ten­sor Pro­cess­ing Unit (TPU)  est une puce con­stru­ite spé­ciale­ment pour l’apprentissage. Google n’a pas de besoin de haute pré­ci­sion pour l’intelligence arti­fi­cielle, le processeur Ten­sor est axé sur les opéra­tions brutes par sec­onde, c’est à dire des tach­es spé­ci­fiques. Il est plus rapi­de pour l’IA que les processeurs habituels à des niveaux d’énergie sim­i­laires. Il est conçu aus­si de petite taille pour pou­voir être inclus dans les baies de dis­ques durs dans les racks des cen­tres de don­nées. Cette puce ne rem­plac­era pas les processeurs habituels, mais par oppo­si­tions aux autres processeurs spé­cial­isés dans l’apprentissage machine, elle est plus économique en énergie.

Con­tin­uer la lec­ture de Tensor/Tensorflow: le processeur de Google pour l’Intelligence Arti­fi­cielle!

Introduction au Deep Learning

Je vous pro­pose de dis­cuter un peu autour d’une vidéo de David Louapre (chaine youtube Sci­enceE­ton­nante) sur le deep learn­ing. C’est telle­ment bien présen­té et amené et que je préfère l’utiliser comme base de réflex­ion ici.

Nous avons déjà dis­cuté du deep learn­ing sur ce blog avec l’article sur la course de voitures Rob­o­race, avec l’utilisation de Nvidia Dri­ve PX2, une carte opti­misée pour le deep learn­ing. C’est un domaine de l’intelligence arti­fi­cielle qui prof­ite aujourd’hui de la puis­sance phénomé­nale des archi­tec­tures dis­tribuées actuelles (que l’on par­le de GPU sur nos cartes graphiques, comme le cloud pour une archi­tec­ture hétérogène dis­tribuée). Nous devri­ons la voir sur­gir de plus en plus dans les jeux vidéo, mais égale­ment dans notre quo­ti­di­en, sans for­cé­ment en avoir con­science.

Con­tin­uer la lec­ture de Intro­duc­tion au Deep Learn­ing