<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Dans la tête de Doc Malkovich &#187; innovation / veille</title>
	<atom:link href="https://blog.developpez.com/jmalkovich/pcategory/innovation-veille/feed" rel="self" type="application/rss+xml" />
	<link>https://blog.developpez.com/jmalkovich</link>
	<description>Réflexions et humeurs sur la Business Intelligence</description>
	<lastBuildDate>Tue, 26 Aug 2014 11:54:41 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>https://wordpress.org/?v=4.1.42</generator>
	<item>
		<title>Hype cet été</title>
		<link>https://blog.developpez.com/jmalkovich/p12693/bi/hype-cet-ete</link>
		<comments>https://blog.developpez.com/jmalkovich/p12693/bi/hype-cet-ete#comments</comments>
		<pubDate>Fri, 15 Aug 2014 17:15:17 +0000</pubDate>
		<dc:creator><![CDATA[doc malkovich]]></dc:creator>
				<category><![CDATA[bi]]></category>
		<category><![CDATA[innovation / veille]]></category>

		<guid isPermaLink="false">http://blog.developpez.com/jmalkovich/?p=154</guid>
		<description><![CDATA[Pour vos lectures sur la plage cet été, Gartner vient de publier son fameux &#171;&#160;hype cycle&#160;&#187;. Pour rappel il s&#8217;agit d&#8217;un graphique sur la maturité des nouvelles technologies. Les technologies émergentes sont à gauche, et celles qui sont adoptées par &#8230; <a href="https://blog.developpez.com/jmalkovich/p12693/bi/hype-cet-ete">Lire la suite <span class="meta-nav">&#8594;</span></a>]]></description>
				<content:encoded><![CDATA[<p><img src="http://data.nubian-ave.com/images/3rd/brand_980/hype-m.jpg" alt="" /></p>
<p>Pour vos lectures sur la plage cet été, Gartner vient de publier son fameux &laquo;&nbsp;hype cycle&nbsp;&raquo;.</p>
<p><span id="more-154"></span></p>
<p>Pour rappel il s&rsquo;agit d&rsquo;un graphique sur la maturité des nouvelles technologies. Les technologies émergentes sont à gauche, et celles qui sont adoptées par le public à droite. Et disparaissent une fois entrées dans les moeurs. Autre information intéressante, la couleur du point sur la courbe indique le temps estimé pour arriver au côté droit.</p>
<p><img src="http://img1.lemondeinformatique.fr/fichiers/telechargement/hype-cycle-2014-gartner.jpg" alt="hype" /></p>
<p>Les grandes tendances (Big Data, In Memory, Internet des objets, NLP/Langage Naturel) se confirment. Néanmoins on peut attendre encore quelques années (10 ans en étant pessimistes) avant qu&rsquo;elles ne soient généralisées &#8230; </p>
]]></content:encoded>
			<wfw:commentRss></wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Oracle 12c : (enfin) l&#8217;option In-Memory !</title>
		<link>https://blog.developpez.com/jmalkovich/p12659/oracle/oracle-12c-inmemory</link>
		<comments>https://blog.developpez.com/jmalkovich/p12659/oracle/oracle-12c-inmemory#comments</comments>
		<pubDate>Sun, 29 Jun 2014 19:25:57 +0000</pubDate>
		<dc:creator><![CDATA[doc malkovich]]></dc:creator>
				<category><![CDATA[hana]]></category>
		<category><![CDATA[innovation / veille]]></category>
		<category><![CDATA[oracle]]></category>

		<guid isPermaLink="false">http://blog.developpez.com/jmalkovich/?p=144</guid>
		<description><![CDATA[Enfin, Oracle sort une option &#171;&#160;InMemory&#160;&#187; pour fournir une base vectorielle digne de ce nom à sa base transactionnelle classique. Comment ça marche ? On garde le stockage en ligne classique et on apporte une couche supplémentaire de stockage en &#8230; <a href="https://blog.developpez.com/jmalkovich/p12659/oracle/oracle-12c-inmemory">Lire la suite <span class="meta-nav">&#8594;</span></a>]]></description>
				<content:encoded><![CDATA[<p><img src="http://fc00.deviantart.net/fs8/i/2005/361/e/3/brain_by_Mateu.jpg" alt="" /></p>
<p>Enfin, Oracle sort une option &laquo;&nbsp;InMemory&nbsp;&raquo; pour fournir une base vectorielle digne de ce nom à sa base transactionnelle classique.</p>
<p><strong>Comment ça marche ?</strong><br />
<span id="more-144"></span></p>
<p>On garde le stockage en ligne classique et on apporte une couche supplémentaire de stockage en colonnes et en mémoire. En fonction de la requête SQL qui est exécutée, le moteur Oracle va chercher les données sur le stockage classique en lignes ou en mémoire dans un stockage en colonnes.<br />
Ce stockage en mémoire et colonnes rappelle celui de solutions déjà existantes, comme Qlikview, Microsoft PowerPivot, SAP HANA et bien d&rsquo;autres.<br />
Comme la mémoire est limitée seules certaines tables seront montées en mémoire. C&rsquo;est au DBA ou à l&rsquo;architecte/concepteur BI de sélectionner les tables candidates. A priori on peut aussi ne choisir que certaines partitions.</p>
<p><img src="http://www.oracle.com/us/assets/cw20v1-315892-social1-2214805.jpg" alt="" /></p>
<p><strong>Le résultat</strong></p>
<p>Les requêtes sont bien plus rapides sur des volumétries importantes, ce qui n&rsquo;est pas étonnant quand on compare avec les solutions similaires.<br />
Mais les requêtes transactionnelles gagnent aussi en rapidité ! En effet certains index ne sont plus d&rsquo;utilité et sont donc supprimés (a priori les index bitmap).</p>
<p><strong>Les contraintes</strong></p>
<ul>
<li>C&rsquo;est une option, ce n&rsquo;est donc pas gratuit. Mais comme pour le partitionnement c&rsquo;est une option obligatoire pour une base décisionnelle.</li>
<li>Il faut une base en 12c, donc il est probable qu&rsquo;il faudra monter de version les bases existantes &#8230;</li>
</ul>
<p><strong>Le reste de la famille</strong></p>
<p>Exalytics est une appliance qui jouait le rôle de cette couche inmemory pour analyser les données rapidement. Le packaging est différent, mais ça fait doublon.<br />
Cela signe aussi la fin des cubes Oracle (Essbase ou OLAP) si le temps de réponse est satisfaisant avec le inmemory.</p>
<p>Pour les autres (TimesTen, Big Data) le terrain de jeu n&rsquo;est pas le même.</p>
<p><strong>Et le reste du monde</strong></p>
<p>SAP HANA est clairement visée. Il est vrai que SAP vend sa base comme LA base pour l&rsquo;analytique et le transactionnel, et marchait sur les plate-bandes d&rsquo;Oracle.<br />
Ce dernier a vite mis en ligne un comparatif entre les deux bases de données, à son avantage évidemment.<br />
SAP a vite rétorqué en commentant directement dans <a href="http://www.saphana.com/servlet/JiveServlet/download/38-14398/Get%20the%20Facts%20Straight.pdf">le document incriminé</a>.</p>
<p><img src="http://www.oracle.com/us/assets/c82-dbim-comp-chart-2215823.jpg" alt="" /></p>
<p>Loin de cette querelle fratricide on retiendra juste que :</p>
<ul>
<li>Oracle 12c inmemory n&rsquo;est pas une base gérée totalement en mémoire comme HANA, c&rsquo;est plus ce qu&rsquo;on appellera &laquo;&nbsp;un cache&nbsp;&raquo; pour l&rsquo;analytique.</li>
<li>HANA n&rsquo;est disponible que sur appliance ou cloud, ce qui est normal car il faut un matériel de compétition pour la faire tourner. Ce n&rsquo;est pas le cas d&rsquo;Oracle.</li>
</ul>
<p>Les deux bases sont bien différentes, le choix va être difficile &#8230;</p>
<p><strong>Oui mais &#8230;</strong></p>
<p>L&rsquo;idée est intéressante sur le papier. On bénéficie des deux modes de stockage, les applications transactionnelles et analytiques cohabitent sans problème. On peut récupérer instantanément tout un enregistrement en ligne pour une application transactionnelle, et on pourra calculer des agrégats complexes sur des volumétries importantes en un clin d&rsquo;oeil.<br />
L&rsquo;application idéale semble le reporting opérationnel en temps réel, soit des états qui attaquent directement une base transactionnelle de production avec un temps de réponse instantané.</p>
<p>Pourtant quand on connait les bases en colonnes existantes, on sait qu&rsquo;il existe un goulot d&rsquo;étranglement quand on ajoute ou modifie une seule ligne. Or c&rsquo;est ce qui se passe tout le temps sur une base transactionnelle classique. Alors comment va réagir la base Oracle inmemory ? Y a-t-il un temps de latence pour prendre en compte ces ajouts/modifications de ligne ? A-t-on vraiment du temps réel ?</p>
<p>Néanmoins il faut avouer que c&rsquo;est une excellente pour le monde BI, les bases Oracle étant bien implantées dans notre univers.</p>
<p>cf <a href="http://www.developpez.com/actu/72089/Oracle-presente-sa-solution-in-memory-pour-concurrencer-SAP-et-Microsoft-l-option-sera-disponible-avec-Oracle-Database-12c-dans-un-mois/" title="l'actu oracle sur developpez">l&rsquo;actu oracle sur developpez</a></p>
]]></content:encoded>
			<wfw:commentRss></wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Ana on Hana</title>
		<link>https://blog.developpez.com/jmalkovich/p11271/humeurs/ana_on_hana</link>
		<comments>https://blog.developpez.com/jmalkovich/p11271/humeurs/ana_on_hana#comments</comments>
		<pubDate>Mon, 03 Sep 2012 20:19:35 +0000</pubDate>
		<dc:creator><![CDATA[doc malkovich]]></dc:creator>
				<category><![CDATA[hana]]></category>
		<category><![CDATA[humeurs]]></category>
		<category><![CDATA[innovation / veille]]></category>

		<guid isPermaLink="false"></guid>
		<description><![CDATA[Les jeux de mots sur Hana ne manquent pas, j&#8217;aurais pu faire pire ou j&#8217;aurais pu aussi m&#8217;étonner que SAP ait choisi le nom d&#8217;un chien pour leur solution (petite viannerie que seuls les fin connaisseurs m&#8217;excuseront). Je donne surtout &#8230; <a href="https://blog.developpez.com/jmalkovich/p11271/humeurs/ana_on_hana">Lire la suite <span class="meta-nav">&#8594;</span></a>]]></description>
				<content:encoded><![CDATA[<p>Les jeux de mots sur Hana ne manquent pas, j&rsquo;aurais pu faire pire ou j&rsquo;aurais pu aussi m&rsquo;étonner que SAP ait choisi le nom d&rsquo;un chien pour leur solution (petite viannerie que seuls les fin connaisseurs m&rsquo;excuseront). Je donne surtout ici l&rsquo;occasion d&rsquo;apprendre <a href="http://fr.wikipedia.org/wiki/Ana">un nouveau mot</a>, que même moi je viens de découvrir en écrivant ces lignes (<em>Hana-lphabète</em> que je suis). Surtout ne me remerciez pas.<br />
<span id="more-42"></span></p>
<p>Alors commençons par voir l&rsquo;<em>Hana-tomie</em> de la bête &#8230;</p>
<p><a href="http://www.strapya-world.com/categories/6034_6735_6332_6381_6782_7201.html"><img src="http://www.strapya-world.com/pic/2012/314-346048img07.jpg" alt="Hana a du nez sur iphone !" /></a></p>
<p>Hana est une base de données de SAP ultra-performante, dopée aux <em>Hana-bolisants</em> comme :</p>
<ul>
<li>la gestion des données en mémoire (in-memory pour la traduction geek), qui comme tout le monde sait est beaucoup plus rapide que les disques durs (qui le sont un peu) ;</li>
<li>le stockage en colonnes, avec un petit coup de compression pour optimiser tout ça ;</li>
<li>le parallélisme jusqu&rsquo;à la colonne (ça me donne froid dans le dos) ;</li>
<li>le partitionnement pour découper tout ça au mieux (comme des <em>Hana-nas</em>) ;</li>
<li>livrée en appliance (ie une machine livrée clé en main avec tous les logiciels déjà installés dessus), histoire d&rsquo;avoir le hardware le plus adapté.</li>
</ul>
<p>Par <em>Hana-logie</em> elle ressemble à <strong>Sybase IQ</strong> pour le stockage des données en colonnes et à <strong>Qlikview</strong> pour le côté in-memory. Mais halte à l&rsquo;<em>Hana-rchie</em> architecturale, contrairement à ses concurrents Hana sait gérer du décisionnel (OLAP) et du transactionnel (OLTP) ; mettre de l&rsquo;Hana dans un système opérationnel ne relève pas de l&rsquo;<a href="http://fr.wikipedia.org/wiki/Anachronique"><em>Hana-chronisme</em></a> et ça c&rsquo;est fort !</p>
<p><strong>Les résultats</strong></p>
<p>Oubliez vos <em>Hana-lgésiques</em>, surtout si vous êtes sur <strong>BW</strong> (le Datawarehouse à la sauce SAP), Hana décoiffe !<br />
Bénéficiant d&rsquo;un moteur OLAP optimisé les performances sont sidérantes. C&rsquo;est comme passer d&rsquo;une télé 4/3 à 16/9, les données sont <a href="http://fr.wikipedia.org/wiki/Anamorphose"><em>Hana-morphosées</em></a> !<br />
Paradoxalement la compression et le partitionnement ne plairont pas forcément aux <a href="http://fr.wikipedia.org/wiki/Pro-ana">pro-Hana</a> qui pourront ingurgiter des milliards de lignes en quelques secondes.</p>
<p><strong>Les critiques</strong></p>
<p>S&rsquo;il fallait lui lancer un <em>Hana-thème</em> on pourrait donner le prix de la licence, qui est un peu cher si c&rsquo;est juste pour faire du datamart. On lui trouve aussi des aspects très homo-sapiens (plus du côté des R/3 que des erectus) comme la gestion de sessions/mandants, des RDS et des réplications sur les DD02, ce qui peut conférer des effets <a href="http://fr.wikipedia.org/wiki/Anaphrodisiaque"><em>Hana-phrodisiaques</em></a> à certains.</p>
<p><strong>Et une petite <em>Hana-phore</em> pour la fin</strong></p>
<p>Hana est une base Next-Gen, qui va vite, très vite.<br />
Vite en restitution des données.<br />
Vite en traitement des données.<br />
Vite en <em>Hana-lyse</em> des données.<br />
Vite en évolutions.<br />
Vite pour remplacer les Bases de données classiques dans tous les environnements SAP (après Hana sur BW bientôt Hana sur R/3 !).<br />
Bref, Hana est la base à suivre du moment.</p>
]]></content:encoded>
			<wfw:commentRss></wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Une petite définition des Big Data</title>
		<link>https://blog.developpez.com/jmalkovich/p11226/definitions/une_petite_definition_des_big_data</link>
		<comments>https://blog.developpez.com/jmalkovich/p11226/definitions/une_petite_definition_des_big_data#comments</comments>
		<pubDate>Thu, 16 Aug 2012 11:39:31 +0000</pubDate>
		<dc:creator><![CDATA[doc malkovich]]></dc:creator>
				<category><![CDATA[big data]]></category>
		<category><![CDATA[définitions]]></category>
		<category><![CDATA[innovation / veille]]></category>

		<guid isPermaLink="false"></guid>
		<description><![CDATA[Big Data &#8230; Après le &#171;&#160;cloud&#160;&#187; c&#8217;est le nouveau terme à la mode, qu&#8217;on voit partout mais que personne ne semble connaître vraiment &#8230; Voici une petite définition que j&#8217;ai essayé de faire la plus simple possible. Comme on peut &#8230; <a href="https://blog.developpez.com/jmalkovich/p11226/definitions/une_petite_definition_des_big_data">Lire la suite <span class="meta-nav">&#8594;</span></a>]]></description>
				<content:encoded><![CDATA[<p>Big Data &#8230;</p>
<p>Après le &laquo;&nbsp;cloud&nbsp;&raquo; c&rsquo;est le nouveau terme à la mode, qu&rsquo;on voit partout mais que personne ne semble connaître vraiment &#8230;</p>
<p>Voici une petite définition que j&rsquo;ai essayé de faire la plus simple possible.<br />
<span id="more-41"></span></p>
<p>Comme on peut le deviner (si on a quelques notions d&rsquo;anglais) la notion de Big Data représente une volumétrie très importante de données. Contrairement à la BI classique il s&rsquo;agit de stocker et d&rsquo;analyser toutes (mais vraiment toutes) les données de l&rsquo;entreprise et même celles de l&rsquo;extérieur, et notamment des blogs, des forums et des réseaux sociaux.<br />
<a href="http://geekblues.com/lavenir-est-dans-le-big-data/"><img src="http://geekblues.com/wp-content/uploads/2012/08/GB0021fr.png" alt="GeekBlues" title="Big Data sur Geek Blues" /></a><br />
Quand on parle de données de l&rsquo;entreprise savez-vous que <strong>seulement 10%</strong> des données sont stockées en base (le reste étant les documents, les mails, les logs &#8230; tout le reste de la production IT quoi) ? C&rsquo;est là la limite de la BI classique : Elle ne traite que les données des bases classiques et <strong>90% des données restantes ne sont pas exploitées</strong>. C&rsquo;est un comble quand on y pense ! </p>
<p>Le défi des Big Data c&rsquo;est de pouvoir stocker ces 90% des données et de les analyser. Et c&rsquo;est là aussi un challenge important des Big Data : On a beau avoir une volumétrie colossalle de données, il faut pouvoir les traiter vite, et même très vite, voire en temps réel.</p>
<p>Mais la plupart de ces nouvelles données sont ce qu&rsquo;on appelle des données <strong>non structurées</strong>. Sous ce terme un peu complexe voire pompeux se cache en fait un concept très simple. En modélisation on a l&rsquo;habitude de structurer les données, par exemple on va faire une table Ventes avec plusieurs infos que le concepteur connait à l&rsquo;avance. Si on veut le chiffre d&rsquo;affaires des ventes d&rsquo;un produit on prendra la colonne &laquo;&nbsp;chiffre d&rsquo;affaire&nbsp;&raquo; en filtrant sur une autre colonne &laquo;&nbsp;produit&nbsp;&raquo;. En gros les données sont rangées dans des cases, prêtes à l&rsquo;emploi &#8211; elles sont dites <strong>structurées</strong>. Dans les documents et dans les messages qu&rsquo;on trouve sur les sites webs on trouve généralement des phrases qui sont composées de mots ordonnés suivant l&rsquo;envie et la culture de l&rsquo;auteur. Ces données sont dites <strong>non structurées </strong>car on ne connait pas le contenu qui serait défini comme aléatoire pour un ordinateur, il faut une réflexion humaine pour déchiffrer la donnée et pouvoir en extraire des informations. Par exemple les phrases &laquo;&nbsp;Julie va passer le weekend à Paris, elle en a de la chance !&nbsp;&raquo; et &laquo;&nbsp;A la fin de la semaine la miss va s&rsquo;éclater à paname&nbsp;&raquo; sont compréhensibles et similaires pour nous alors que l&rsquo;ordinateur ne sait les analyser et les comparer simplement. Pourtant en information on pourrait en déduire plusieurs axes d&rsquo;analyse : une personne (Julie), un temps (samedi/dimanche qui arrivent), un lieu (Paris) et un fait (présence et une opinion satisfaisante).</p>
<p>Les Big Data révolutionnent la BI en stockant ces données non structurées et en remettant au goût du jour l&rsquo;analyse sémantique. Cette dernière va permettre d&rsquo;analyser un nombre important de données et d&rsquo;en tirer des informations comme les opinions, avec des modules de datamining.</p>
<p>C&rsquo;est pourquoi on définit généralement les Big Data par <strong>les 3 V : VVV = Volume x Vitesse x Variété</strong> (volumétrie importante de données hétérogènes traitée très rapidement).</p>
<p><strong>La recette du Big Data</strong></p>
<p>Pour faire du Big Data c&rsquo;est simple. Il vous faut ;</p>
<ul>
<li>quelques Tera de base NoSQL (soit une grosse base qui n&rsquo;est pas relationnelle comme celles qu&rsquo;on connait mais qui peut tout stocker, même l&rsquo;univers diront certains)</li>
<li>quelques CPU de framework MapReduce (soit un traitement ultra rapide un peu comme ce que fait Google quand il indexe ses pages &#8230; Ah bin justement ils utilisent un tel framework, ça tombe bien)</li>
<li>quelques Mo d&rsquo;outils pour restituer les données (un peu classiques avec les bons connecteurs)</li>
<li>quelques Mo d&rsquo;outils pour analyser les données (si on veut faire un peu d&rsquo;analyse sémantique)</li>
</ul>
<p>Certains challengers sortent du lot, principalement en opensource comme :</p>
<ul>
<li>HBase, Cassandra pour les bases NoSQL</li>
<li>Hadoop en framework MapReduce (adopté partout, même par les plus grands éditeurs)</li>
</ul>
<p>Les technos citées ci-dessus sont matures et viennent des grands acteurs du web (Google, Yahoo!, etc).<br />
En ce qui concerne la BI &laquo;&nbsp;pure&nbsp;&raquo; les éditeurs s&rsquo;y mettent et nous promettent un futur resplendissant pour les Big Data.</p>
<p>Sans jeu de mots il est difficile de résumer les Big Data en quelques lignes, le sujet est vaste !</p>
<p>Quelques liens pour ceux qui voudraient aller plus loin :</p>
<ul>
<li>http://en.wikipedia.org/wiki/Big_data : la définition sur wikipedia</li>
<li>http://www.decideo.fr/bigdata/ : le blog de Philippe Nieuwbourg qui écrit un livre sur le sujet</li>
<li>http://bigdataparis.com/compte-rendu.php : les slides de la conférence Big Data Paris du 20 et 21 mars</li>
<li>http://www.kimballgroup.com/html/articles.html : The Evolving Role of the Enterprise Data Warehouse in the Era of<br />
Big Data Analytics, un article de Ralph Kimball très complet sur le sujet</li>
</ul>
]]></content:encoded>
			<wfw:commentRss></wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>De la BI dans le disque dur ?</title>
		<link>https://blog.developpez.com/jmalkovich/p9605/innovation-veille/de_la_bi_dans_le_disque_dur</link>
		<comments>https://blog.developpez.com/jmalkovich/p9605/innovation-veille/de_la_bi_dans_le_disque_dur#comments</comments>
		<pubDate>Thu, 23 Dec 2010 16:46:00 +0000</pubDate>
		<dc:creator><![CDATA[doc malkovich]]></dc:creator>
				<category><![CDATA[innovation / veille]]></category>

		<guid isPermaLink="false"></guid>
		<description><![CDATA[Vu sur Decideo : Microsoft intègre les graphiques de type Treemap dans son ERP Dynamics Nav ( ou Navision pour les initiés ) Pour ma part je connaissais les Treemap via Windirstat, un petit outil gratuit pour visualiser l&#8217;espace occupé &#8230; <a href="https://blog.developpez.com/jmalkovich/p9605/innovation-veille/de_la_bi_dans_le_disque_dur">Lire la suite <span class="meta-nav">&#8594;</span></a>]]></description>
				<content:encoded><![CDATA[<p>Vu sur Decideo :<br />
<a href="http://www.decideo.fr/Microsoft-ajoute-des-graphiques-TreeMap-a-Navision_a3999.html">Microsoft intègre les graphiques de type Treemap dans son ERP Dynamics Nav</a> ( ou Navision pour les initiés )</p>
<p>Pour ma part je connaissais les Treemap via Windirstat, un petit outil gratuit pour visualiser l&rsquo;espace occupé d&rsquo;un disque ( <a href="http://windirstat.info/">http://windirstat.info/</a> ). Outil que je vous recommande chaudement, bien pratique pour traquer les fichiers perdus dans un coin et faire le ménage sur son disque dur :p</p>
<p>C&rsquo;est vrai que cette vision est bien plus représentative qu&rsquo;un camembert ou qu&rsquo;un graphique en barres ( comme l&rsquo;outil treesize ). Une fois qu&rsquo;on y a goûté on se demande comment on a pu passer à côté depuis tant d&rsquo;années.</p>
<p>Espérons que d&rsquo;autres éditeurs adoptent aussi ce type de graphique dans leurs solutions.</p>
]]></content:encoded>
			<wfw:commentRss></wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Ca sent le sapin</title>
		<link>https://blog.developpez.com/jmalkovich/p9570/bi/ca_sent_le_sapin</link>
		<comments>https://blog.developpez.com/jmalkovich/p9570/bi/ca_sent_le_sapin#comments</comments>
		<pubDate>Fri, 10 Dec 2010 12:51:08 +0000</pubDate>
		<dc:creator><![CDATA[doc malkovich]]></dc:creator>
				<category><![CDATA[bi]]></category>
		<category><![CDATA[innovation / veille]]></category>

		<guid isPermaLink="false"></guid>
		<description><![CDATA[Cette semaine un billet du grand BIa retenu toute mon attention. Il commente un billet de Chris Webb sur Denali, la prochaine version de Microsoft SQL Server La disparition prochaine de SSAS &#8211; Sql Server Analysis Services &#8211; la solution &#8230; <a href="https://blog.developpez.com/jmalkovich/p9570/bi/ca_sent_le_sapin">Lire la suite <span class="meta-nav">&#8594;</span></a>]]></description>
				<content:encoded><![CDATA[<p>Cette semaine <a href="http://www.legrandbi.com/2010/12/sql-server-analysis-services-dead-denali">un billet du grand BI</a>a retenu toute mon attention. Il commente <a href="http://cwebbbi.wordpress.com/2010/11/11/pass-summit-day-2/">un billet de Chris Webb sur Denali</a>, la prochaine version de Microsoft SQL Server La disparition prochaine de SSAS &#8211; Sql Server Analysis Services &#8211; la solution OLAP de Microsoft est mise en avant, Microsoft semblant préférer Vertipaq, le stockage en colonnes de PowerPivot. Cela annonce quelque part la fin des cubes OLAP qui ont bercé nos jeunesses décisionnelles. Je ne suis pas Microsoftien mais je trouve que cette évolution va dans le bon sens, ayant déjà vu des cubes démantelés sans aucun cri de douleur. La technologie des &laquo;&nbsp;vrais&nbsp;&raquo; cubes est bien trop contraignante à mon goût.<br />
Séquence Nostalgie. Cela me fait penser à cette icône de disquette que nous retrouvons tous les jours sur nos écrans, alors que nos jeunes collègues n&rsquo;en ont jamais vu de vraies !<br />
Les temps changent</p>
]]></content:encoded>
			<wfw:commentRss></wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>Innovation : le GPU à la rescousse de l&#8217;OLAP</title>
		<link>https://blog.developpez.com/jmalkovich/p9543/bi/innovation_le_gpu_a_la_rescousse_de_l_ol</link>
		<comments>https://blog.developpez.com/jmalkovich/p9543/bi/innovation_le_gpu_a_la_rescousse_de_l_ol#comments</comments>
		<pubDate>Mon, 29 Nov 2010 12:34:25 +0000</pubDate>
		<dc:creator><![CDATA[doc malkovich]]></dc:creator>
				<category><![CDATA[bi]]></category>
		<category><![CDATA[innovation / veille]]></category>
		<category><![CDATA[optimisations]]></category>

		<guid isPermaLink="false"></guid>
		<description><![CDATA[Si vous êtes un PC gamer vous ne devez pas être insensible à ce terme. Le GPU est un processeur spécifique aux cartes graphiques. Très utilisé dans les jeux, il est dédié aux traitements mathématiques coûteux pour afficher des scènes &#8230; <a href="https://blog.developpez.com/jmalkovich/p9543/bi/innovation_le_gpu_a_la_rescousse_de_l_ol">Lire la suite <span class="meta-nav">&#8594;</span></a>]]></description>
				<content:encoded><![CDATA[<p>Si vous êtes un PC gamer vous ne devez pas être insensible à ce terme. Le GPU est un processeur spécifique aux cartes graphiques. Très utilisé dans les jeux, il est dédié aux traitements mathématiques coûteux pour afficher des scènes en 3D de plus en plus réalistes. </p>
<p>Alors, quel est le rapport entre GPU et la BI me direz-vous ?<br />
<span id="more-39"></span></p>
<p>Et bien le GPU ne sert pas qu&rsquo;à afficher de jolies scènes en 3D, et les fabricants comme nVidia ou AMD offrent la puissance de calcul du GPU aux développeurs. Ainsi de nombreuses applications permettent d&rsquo;encoder des vidéos plus rapidement via le GPU comme Nero Move It ou Cyberlink MediaShow Espresso. Un article sur Clubic explique très bien <a href="http://www.clubic.com/article-275354-1-encoder-carte-graphique.html">l&rsquo;intérêt des GPU</a> et on en parle aussi sur <a href="http://www.developpez.net/forums/d954851/club-professionnels-informatique/actualites/nvidia-met-gpu-computing-disposition-developpeurs-utilisent-visual-studio/">developpez</a>.<br />
<img src="http://ftp-developpez.com/gordon-fowler/NVIDIA.png" alt="" title="" /></p>
<p>En résumé le GPU est bien plus performant dans les calculs simples sur de grosses volumétries comme en 3D &#8230;<br />
Et là on comprend mieux l&rsquo;intérêt de l&rsquo;utiliser pour la BI où les données se comptent en Téra ! </p>
<p>C&rsquo;est du côté de l&rsquo;opensource que les éditeurs se sont lancé avec <a href="http://www.jedox.com/fr/produits/palo-gpu-accelerator.html">Jedox et PALO 3.2</a> qui offre un serveur OLAP de bonne facture. Optimisé avec des cartes nVidia le gain annoncé est important : de 20 à 30 fois &#8230; Mais comme d&rsquo;habitude il faudra attendre un certain temps avant de connaître les performances réelles.</p>
<p>Deux bémols à propos de cette solution :<br />
&#8211; la solution est propre à un seul constructeur, en l&rsquo;occurence nVidia<br />
&#8211; les GPU sont du côté serveur et non du côté client. Donc pas de partie du dernier Call Of Duty au boulot :p</p>
]]></content:encoded>
			<wfw:commentRss></wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
	</channel>
</rss>
