lundi 23 octobre 2017

Retour sur le Google Cloud Summit 2017

La semaine dernière, j'étais présent au Google Cloud Summit de Paris afin de voir quels était les sujets de l'année. Avec environs 3000 inscrits pour cette journée, le cloud de Google arrive à faire bouger les foules malgré des parts de marché plus faible que la concurrence.
La journée a commencé par une plénière d'ouverture.
Plusieurs hauts responsables de Google dont Sébastien Marotte (VP EMEA) étaient présents pour cette keynote d’ouverture.
Alors qu’aujourd’hui environ 5% des workloads sont sur le cloud, Google donne 3 à 5 ans au cloud pour être utilisé par 100% des entreprises. C'est un objectif ambitieux qui malgré l’accélération actuelle semble irréalisable.
Les intérêts du cloud ont été rappelé et Google Cloud envisage de faire de chaque entreprise une entreprise de la donnée. En clair, de moins en moins d’ops, de plus en plus de workloads dans le cloud, des services managés de haut niveau et du machine learning.
Même si beaucoup de DSI espèrent surtout baisser les coups de leur SI, il n'est pas inutile de rappeler que le cloud apporte également de nombreux autres avantages. De plus, le gain financier ne peut être intéressant que si la gestion des services est efficace - sans automatisation et sans l'utilisation des services managés, au revoir les économies. D'après les informations recueillient par les cabinets d'analyses, 45% des dépenses des entreprises dans le cloud sont liée à une mauvaise gestion des ressources.
En juin 2017, Google a obtenu 100 points CloudSpec soit la meilleure note actuelle pour un provider de cloud (selon cloud Spectator). Preuve que Google bien qu'à la traîne niveau adoption, ne traîne pas pour ajouter des services et améliorer son cloud.
Pour ceux qui ont encore des réticences liées à l'utilisation du cloud pour mettre les données de leur entreprise, les datacenters de Google répondent aux exigences de nombreuses certifications.
Une fois passé les informations "classiques" autour du cloud, vient l'heure de la présentation des nouveautés, et cette année, il y en a une: le Machine Learning. Petit à petit nous allons en retrouver dans tous les services et applications Google allant de GCP à Google Suite et même Android et ChromeOS.
C’est sur le machine learning que Google se démarque de leur concurrents AWS, et Azure.
Nous avons eu pour terminer des retours d’expériences de diverses sociétés dont: La redoute, Amadeus et Dailymotion afin de présenter leur utilisation de GCP.
Suite à cela, il y avait des conférences thématiques réparties dans plusieurs salles.
J’ai suivi les conférences autour du devops et surtout de Kubernetes.
La première était présentée par Google et Claranet, il a surtout été question des avantages de l’utilisation de GKE (kubernetes on GCP) par rapport à un cluster kubernetes on premise.
Là encore, beaucoup de machine learning, notamment pour la partie monitoring et définition des alertes.
Parmis les clients de GKE, Objenious (filliale IoT de Bouygues Telecom) a fait part de son retour d’expérience suite à une migration AWS avec beaucoup d’EC2 vers GKE.
GKE n’est pas encore mature, certaines fonctionnalités importantes sont manquantes et les api sont en alpha. Toutefois le service évolue très vite et certaines lacunes sont comblées. Dans la dernière version (1.8), GKE gère l’auto réparation des noeuds, des network policies et le socle peut être basé sur Ubuntu au lieu d’un OS custom basé sur ChromeOS.

La deuxième session est revenue sur cet aspect micro service vers lequel évolue les applications. L’occasion pour Google de rappeler que le Serverless à la mode depuis quelques mois, existait déjà avec des services comme AppEngine depuis plusieurs années.
Nous avons pu voir des démos de machine learning mais également de Cloud Functions (le Lambda d’AWS) avec des interactions via un Google Home. J’ignore si Google Assistant fera son entrée dans les entreprises mais cela permet un bel effet démo.

La troisième session portait sur l’utilisation de Kubernetes pour les devs. C’est Zenly qui a fait son retour d’expérience: 12 clusters, 200 pods et plus de 2000 noeuds. Tout ça pour seulement 2 ops. Preuve que l’administration système va être complètement déléguée aux géants du cloud. Pour Zenly, la solution de départ était du Docker+systemd sur des machines EC2. Pour diverses raisons liées à l’entreprise, une migration vers GCP a été engagée et validée en seulement 3 semaines.
Pour ceux qui veulent en savoir plus sur les conteneurs, Google a publié un article sur Borg (leur système interne de gestion des conteneurs) qui a servi de base à Kubernetes:

Ensuite je suis passé sur la partie Gestion de Prod avec une conférence sur les fameux SRE (Site Reliability Engineer) de Google. Il a été question de définition de SLA, SLI, SLO, de la manière de gérer les incidents mais également du CRE (Customer Reliability Engineering). Le CRE, se sont des ingénieurs de Google qui peuvent venir chez le client pour analyser la gestion de sa production et apporter des améliorations. Pour les clients intéressés, Google permet même d’avoir des équipes de Prod mixtes entre des Googlers et des employés du client.

Dans le hall, de nombreux partenaires Google Cloud étaient présents, beaucoup avait misé sur le Google Home pour attirer les foules.

Nul doute que GCP devrait augmenter ses parts de marchés dans les années à venir. Certains avantages liés au pricing de la plateforme en fond un bon concurrent à AWS.

vendredi 25 avril 2014

NurseHelper et autres applications infirmières

    Le site OnlineLpnToRn a publié récemment un article sur les nombreuses applications existantes sur mobile et qui peuvent venir en aide aux infirmières et dans certains cas, à d'autres personnes du milieu médical.

    Parmi cette liste se retrouve NurseHelper, mon application développée depuis un peu plus de 6mois.
Cette liste est intéressante car elle permet de se rendre compte à quel point la technologie s’immisce un peu partout et peut venir assister les gens dans leur travail.

    Vous pouvez retrouver la liste des applications sur le site OnlineLpnToRn. Plus de 100 applications y sont répertoriées. Elles sont classées par catégories: générique, pédiatrie, médicaments, anatomie, etc

mardi 29 octobre 2013

Python 3 et requêtes web derrière un proxy

Dans le cadre du projet Luchiana, mon intelligence artificielle a besoin de se connecter à internet pour récupérer des informations. Dans certains cas, un proxy peut se trouver entre l'IA et internet. J'ai donc développé un petit module permettant d'accéder à internet à travers un proxy.

import urllib.request
import ssl


def connectProxy(type):
    proxy_info = {
    'user' : 'nom d utilisateur',
    'pass' : 'mot de passe',
    'host' : "ip ou nom du proxy",
    'port' : port # or 8080 or whatever
    }

    proxy_support = urllib.request.ProxyHandler({type : "http://%(user)s:%(pass)s@%(host)s:%(port)d" % proxy_info})
    opener = urllib.request.build_opener(proxy_support, urllib.request.HTTPHandler)

    # install it
    urllib.request.install_opener(opener)

Ensuite il suffit de faire un import Proxy dans votre projet et d'appeler la fonction avec un Proxy.connectProxy("typeConnection")
Le type de connection peut être https ou http selon les sites auxquels vous souhaitez accéder.

mardi 10 septembre 2013

Luchiana - Présentation de l'architecture logicielle

Après la présentation de l'architecture physique et matérielle, voici la présentation de l'architecture logicielle.
    Côté client, c'est simple. Il y a la partie principale, l'interraction avec l'utilisateur. Ce module s'appuis sur le module Audio pour la reconnaissance et la synthèse vocale si ces options sont activées. Sinon le module peut fonctionner en solo. Il repose également sur un module de gestion des connexions. C'est un client TCP asynchrone semblable à celui dont j'ai publié le code précédemment. Ce module de connexion s'appuie sur un module Sécurité qui permet de chiffrer ou déchiffrer le contenu échanger entre le client et le serveur.

    Côté serveur, c'est un peu plus complexe. L'idée est d'avoir un module par type d'action. Un module web permettant de rechercher sur internet, d'envoyer des maisl ou de tweeter, un module Math pour toutes les opérations mathématiques, un module TankBot pour l'intéraction avec mon TankBot et un module System pour l'interaction avec le système linux du Raspberry. On retrouve également les modules de connexion avec le serveur TCP et le module de sécurité pour le chiffrement des communications.
    L'essentiel du travail est réalisé par un module nommé Cerveau. Il se charge d'analyser la phrase donnée par l'utilisateur. Il cherche dans sa base de connaisance l'action ou la réponse associée.
La base de connaissances ressemble à de l'AIML.

Voici un exemple:
comment/appelles/?;Je m'appelle Luchiana./Mon nom est Luchiana.
Cette ligne signifie: si une phrase contient "comment", "appelles" et un "?" alors réponds aléatoirement: "Je m'appelle Luchiana." ou "Mon nom est Luchiana."
La partie précédent le ";" est ainsi celle relative à l'entrée de l'utilisateur. Celle qui suit le ";" est la réponse.
Les réponses peuvent également être ou nécessiter des commandes/actions:
donne|quelle/date/?;bash;date +%d-%m-%Y;Nous sommes le %OUT%
Ici on voit apparaitre le "|". Il signifie que l'un des deux mots qui l'entourent doivent être présent. On voit également "bash;date +%d-%m-%Y" qui signifie que le Cerveau doit exécuter cette commande avant de répondre. Le résultat remplacera le %OUT% dans la réponse.

Luchiana - Présentation de l'architecture physique

Voici une petite présentation de l'architecture de Luchiana. Pour rappel, Luchiana est un projet personnel d'intelligence artificielle. Le but est de pouvoir lui parler, lui poser des questions et même lui faire réaliser des actions comme l'envoie de mail ou encore contrôler la lumière de l'appartement.

La solution se base sur un code en python hébergé sur un raspberry pi. J'utilise le mode client/server.



D'un point de vue physique, c'est très simple. On retrouve la box pour l'accès à internet et qui permet au raspberry d'être accessible de l'extérieur et sur le réseau. Ensuite les différents éléments (lampes, volets, télé, ...) sont reliés au raspberry via les pins GPIO. Sur ces pins on peut brancher des emetteurs infra-rouge, ondes radio etc. J'ai également branché sur la prise jack un émetteur radio TankBot.

Les clients sont au nombre de 3: 
- un client web permettant la discussion en mode texte
- un client en ligne de commande avec reconnaissance et synthèse vocale
- un client Android avec reconnaissance et synthèse vocale.


lundi 9 septembre 2013

Elementary OS Luna

Juste une petit article pour présenter mon bureau et la distribution que j'utilise: Elementary OS.

Elementary OS est une distribution basée sur Ubuntu. Elle se veut simple, rapide et élégante. L'équipe de développement a créé quelques logiciels comme Music, Gaia, Pantheon-Terminal, etc
A l'origine, le projet Elementary était un thème d'icônes, puis un thème gtk. Désormais, il s'agit d'une distribution à part entière qui utilise Pantheon, son propre shell.
Par défaut on a un bureau géré par Pantheon avec Wingpanel ( la barre du haut) et Plank (le dock minimaliste).

mardi 18 juin 2013

Droidconfr

BugDroid Francais
Pour la première année, la Droidcon a eu lieu en France. 2 jours totalement dédiés a Android sous toutes ses formes. Beaucoup d'annonces et de démonstrations ont eu lieu. On a principalement pu voir:
-Genymobile qui a présenté son émulateur Android basé sur une image x86 et qui ajoute des fonctionnalités de gestion de la batterie de l'émulateur ou encore le GPS. L'émulateur prend aussi en charge open GL et offre de très bonnes performances
-Intel a annoncé un nouveau smartphone x86 a moins de 300€ avec de très bon résultats sur Antutu (>30000)
-Motorola a présenté sa suite RhoMobile permettant de développer en cross plateforme.
-Alcatel a mis a disposition sur son stand des tablettes et smartphones et surtout un smartphone sous Firefox Os
-Alain Regnier, consultant sur les solutions google a par ailleurs fait une conférence sur les Google Glasses. Il a présenté le hardware ainsi qu'une démo de quelques applications.

Cette droidcon a rassemblé beaucoup de monde et a été un réel succès. Merci aux organisateurs et aux intervenants d'avoir proposé un événement Android en France.