Overblog
Suivre ce blog Administration + Créer mon blog

NOVIRENT-location serveurs

NOVIRENT, spécialiste location courtes durées informatique de serveurs UNIX WINDOWSstockage et switch pour projets ponctuels et/ou urgents.

Sur le blog de novirent, spécialiste de la location de matériels informatiques et plus particulièrement des serveurs, vous trouverez des informations sur l'écologie en entreprise, le high tech et le monde des serveurs et de l'informatique en générale (HP, IBM, SUN/Oracle, DELL, BULL, Fujitsu, EMC², Netapp, Brocade, Cisco, Clarion, HDS... l'ensemble sur serveurs en location, du stockage en location, des routeurs en location, des onduleurs en location, des stations de travail en location, des workstations en location et des switchs en location).

Bonne lecture à tous !

FERRIER Aubry

( NOVIRENT location informatique, location serveurs, location stockage, location switchs, location routeurs, location onduleurs, location workstation... http://www.novirent.com )

logo-home-novirent-location-serveurs.jpg<--- retour à l'acceuil

twitter-logo novirent location louer serveurs server server  findUsOnFacebook_novirent.png

louer_serveurs_noivrent_location_materiel_informatique_stat.png

WordsCloud

WordClouds du blog des spécialiste de la location de serveurs courtes durées ---> Novirent 

  Stockage informatique     Serveurs informatique     Actualité informatique     Switch informatique     Facebook     Virtualisation    Ecologie     Twitter     Novirent     Catalogue Novirent     Processeurs     Site web Novirent

Blog virtualisation

TopArticles

"Voici les articles les plus consultés sur le blog des spécialistes de la location de serveurs depuis le mois de février 2011"

 

 

"Catégories du Blog des spécialistes de la location de serveurs et matériels informatiques"

Novirent Location Serveurs

"Spécialisé dans la location de serveurs et de matériels informatiques à courtes durées, découvrez le site web de Novirent : - Serveurs - Stockage - switches - routeurs - onduleurs - stations de travail : IBM, HP, BULL, SUN, ORACLE, DELL, FUJITSU, CISCO, HITACHI, EMC, NETAPP... Nous adaptons le matériel à vos besoins ponctuels et/ou urgents et le livrons dans les meilleurs délais, le plus souvent en 24/48H"

23 octobre 2013 3 23 /10 /octobre /2013 15:19

Photo du premier Bug informatique: un papillon ?

 

bug-informatique.jpg

Le 9 septembre 1947, le premier «Bug informatique" a été trouvé !

Il s’agit d’un jeu de mot du terme anglais bug, signifiant insecte.  Dans ce cas précis il s’agissait concrètement d’un papillon de nuit, coincé entre des points au relais n°70, Groupe F, de la calculatrice de relais Aiken Mark II alors qu'il était testé à l'université de Harvard.  Les opérateurs de l’époque ont apposé le papillon dans le journal de l'ordinateur (photo ci-dessous), avec la mention: "premier cas réel de bug  trouvé". (Le terme "débogage" existait déjà. Ainsi, trouver un bug réel est un événement amusant).

Source : Gracieuseté de la Naval Surface Warfare Center, Dahlgren, en Virginie., 1988

 

 

Partager cet article
Repost0
26 septembre 2013 4 26 /09 /septembre /2013 16:30

Une plate-forme est en informatique une base de travail à partir de laquelle on peut écrire, lire, développer et utiliser un ensemble de logiciels.

Elle peut être composée :

Du matériel : x86, x86-64, SPARC, PowerPC, IA-64, etc.

Du système d’exploitation : Linux, Unix, Windows, Mac OS X, ou un simple noyau parfois temps-réel, etc.

D’outils logiciels :

      de développement :

      bibliothèque logicielle, API voire frameworks: Struts, Hibernate, etc.

Débogueurs, éditeur de texte, compilateurs et éditeur de liens voire Environnement de développement intégré : Visual Studio, Eclipse, etc.

De gestion de projet : gestionnaire de bugs, de version : Apache Subversion, etc

De SGBD : MySQL, PostgreSQL, Oracle, etc.

D’un serveur web : Apache, IIS, etc.

D’un serveur d'applications : JOnAS, Tomcat, JBoss, etc.

D’environnement d'exécution de logiciel :

Le système d'exploitation et son interpréteur de commandes, dans le cas de phase de compilation

Ou machine virtuelle ou interpréteur

Les plates-formes informatiques sont généralement conçues, développées, construites, mises en service et maintenues par des constructeurs informatiques, ou des prestataires de services. Dans le cas des plates-formes logicielles, elles sont plutôt maintenues par les organismes (par exemple l’INRIA, le CNRS, le CEA, l’INRA) qui hébergent la base de travail et les logiciels associés.

NOVIRENT de par ses solutions matérielles de location courte durée est en mesure d’aider à la mise en place et /ou au développement de multiples plateformes Informatiques.

 

Article extrait de Wikipédia du 7 mai 2013

Partager cet article
Repost0
12 juin 2013 3 12 /06 /juin /2013 14:50

QNAP-NAS-et-QTS.jpgd'après : Le 29 avril 2013

Denis Leclercq  dans HardwareStockage

NOVIRENT Dans le cadre de son activité de spécialiste en solutions matériels pour des projets informatiques urgents et ou ponctuels, propose en location et/ou vente des solutions de stockage NAS et propose les solutions QNAP.  Pour information , la société QNAP essaie de rattraper son retard avec deux nouveaux NAS et une nouvelle version de son système d'exploitation.A l'approche des vacances d'été, les différentes marques de NAS renouvellent leurs matériels pour séduire de nouveaux clients.

QNAP l'a très bien compris avec le lancement de deux nouveaux produits dans la gamme Turbo NAS sous les noms respectifs de TS-x21 et TS-x20. Le « x » devant être ici remplacé par le nombre d'emplacements disques durs libres, allant de un à quatre.La version 20 dispose d'un SoC Marvell à 1,6 GHz et 512 Mo de RAM, ainsi que deux ports USB 3.0, un port Gigabit Ethernet pour la déclinaison simple et double disque (TS-120 et TS-220) avec un second port pour la version TS-420. La version 21 double la mémoire vive et dispose d'un processeur Marvell un peu plus véloce, à 2 GHz.

Pour le reste des options, on retrouve le même nombre de ports USB 3.0 ou de ports Gigabit LAN, sur l'ensemble des déclinaisons de cette gamme. par rapport aux autres NAS signés QNAP, le TS-421 aura droit à son propre afficheur LCD.Le « bureau » est tout simplement en rupture avec le précédent design de QNAP. Les applications telles que Photo Station, Music Station ou d'autres, que l'on installera via l'App Center, seront directement accessibles au centre de l'écran.

On note également la prise en charge du multi-fenêtre pour gérer plusieurs applications en simultanées. Cette nouvelle version QTS 4.0 arrivera en premier sur les prochains NAS de la marque dans les jours à venir, puis sur les anciens produits d'ici la fin du mois de mai. Ce sera l'occasion pour nous de vous proposer un test des TS-x20 et TS-x21, ainsi qu'un passage en revue de toutes ces nouvelles fonctionnalités introduites avec QTS 4.0.

Partager cet article
Repost0
30 novembre 2012 5 30 /11 /novembre /2012 16:15

Hitachi découvre un support de stockage qui peut durer plusieurs centaines d'années

 

Julien L. - publié le Mardi 25 Septembre 2012 à 17h00 - posté dans High-Tech

 

Les supports de stockage actuels ont une durée de vie relativement limitée, de quelques années ou, dans le meilleur des cas, de quelques dizaines d'années. Afin de repousser ces limites, Hitachi a dévoilé un support de stockage en quartz pratiquement impérissable. Il est en outre particulièrement résistant, dans la mesure où il peut supporter de nombreux aléas sans broncher.

 

Comme tout support, les disques optiques tels les CD ou les DVD finissent tous par se dégrader au bout de quelques années (oxydation, rayures sur la surface...). C'est aussi le cas des disques durs(usure mécanique, choc affectant la tête de lecture ou les plateaux...) ou même les mémoires Flash. Si la durée de vie des supports de stockage varie selon leur entretien et de leurs matériaux, tous finissent par faillir. Tous ? Peut-être pas.

 

En effet, les scientifiques employés par la firme japonaise Hitachi ont peut-être trouvé une piste qui révolutionnera le stockage de données à long terme voire à très long terme. L'idée ? Graver dans une fine couche de quartz des données, sous une forme binaire avec des points. Selon le site Phys.org, les contenus peuvent ensuite être lus avec un microscope optique ordinaire.

 

Selon Hitachi, ces nouveaux supports de stockage peuvent endurer des conditions extrêmes de température, comme une température de 1000 degrés sans subir le moindre dégât. Il peut également résister aux micro-ondes, à l'eau et à de nombreux produits chimiques. Le support serait pratiquement impérissable. En tout cas, il dispose selon Hitachi d'une durée de vie bien supérieure que celle des autres supports.

 

Les dimensions de ce petit morceau de quartz sont également impressionnantes. Il mesure deux centimètres de côté et son épaisseur atteint deux millimètres. On ne peut pas dire que ce support soit particulièrement encombrant ! En revanche, sa capacité de stockage demeure son principal point faible. Il ne peut contenir que 40 Mo de données par carré de quartz.

 

Deux solutions sont pour l'heure envisagées, d'autant qu'elles peuvent se compléter : augmenter le nombre de couches de gravure par carré de quartz et augmenter le nombre de carrés de quartz par machine. À l'heure actuelle, chaque carré dispose de quatre couches de points. Une marge de manœuvre existe donc. Mais rien n'indique qu'une telle technologie sera un jour accessible au grand public.

 

Ce procédé de gravure n'est pas sans rappeler les recherches sur le disque centenaire (century disc), un support sur lequel l'information est directement gravée dans le verre grâce à un procédé de lithogravure. Comme le souligne 01 Net, il s'agit d'une solution qui offre une durée de vie bien meilleure aux contenus, en l'augmentant de plusieurs dizaines ou centaines d'années.

 

Partager cet article
Repost0
22 octobre 2012 1 22 /10 /octobre /2012 16:15

Extrait de commentcamarche.net et wikipedia , articles sur les unix et aix.

Le système UNIX

Le système Unix est un système d'exploitation multi-utilisateurs, multi-tâches, ce qui signifie qu'il permet à un ordinateur mono ou multi-processeurs de faire exécuter simultanément plusieurs programmes par un ou plusieurs utilisateurs. Il possède un ou plusieurs interpréteurs de commandes (shell) ainsi qu'un grand nombre de commandes et de nombreux utilitaires (assembleur, compilateurs pour de nombreux langages, traitements de texte, messagerie électronique, ...). De plus il possède une grande portabilité, ce qui signifie qu'il est possible de mettre en oeuvre un système Unix sur la quasi-totalité des plates-formes matérielles.

De nos jours les systèmes Unix sont très présents dans les milieux professionnels et universitaires grâce à leur grande stabilité, leur niveau de sécurité élevé et le respect des grands standards, notamment en matière de réseau.

 

L'histoire des systèmes UNIX

Le premier système «Unix» a été mis au point par Ken Thompson dans les laboratoires Bell AT&T à Murray Hill dans le New Jersey aux Etats-Unis à partir de 1965. Le but de Ken Thompson était de mettre au point un système d'exploitation interactif simple, nommé "Multics" (Multiplexed Information and Computing System) afin de faire tourner un jeu qu'il avait créé (space travel, une simulation du système solaire).

Un consortium composé du MIT (Massassuchetts Institue of Technology), de General Electric Co. et de Bell Lab se forma ainsi autour de Multics.

En avril 1969 les laboratoires AT&T décidèrent d'utiliser le système GECOS (General Electric Comprehensive Operating System ) en lieu et place de Multics. Or Ken Thompson et Dennis Ritchie qui rejoignirent l'équipe eûrent besoin de faire fonctionner le jeu space travel sur une plus petite machine (un DEC PDP-7, Programmed Data Processor possédant uniquement 4K de mémoire pour faire fonctionner les programmes des utilisateurs), c'est la raison pour laquelle il réécrirent le système afin de créer une version réduite de Multics appelée UNICS (UNiplexed Information and Computing Service), rapidement contractée en Unix.

 

La date du 1er janvier 1970 est considérée comme étant la date de naissance du système Unix, ce qui explique pourquoi toutes les horloges système des systèmes d'exploitation Unix démarrent à partir de cette époque.

Parallèlement à ces activités, D.Ritchie participa grandement à la définition du langage C (puisqu'il est considéré comme un de ses créateurs avec B.W.Kernighan), ainsi l'ensemble du système fût entièrement réécrit en langage C en 1973 et baptisé Unix Time-Sharing System (TSS).

Lorsque le système passa à la version 7 en 1979, l'évolution s'accompagna de nombreuses modifications notables telles que :

la suppression du bridage lié à la taille des fichiers,

une meilleure portabilité du système (fonctionnement sur de nombreuses plates-formes matérielles),

l'ajout de nombreux utilitaires.

Un décret datant de 1956 empêchait l'entreprise ATT, dont dépendait Bell Labs, de commercialiser autre chose que des équipements téléphoniques ou télégraphiques, c'est la raison pour laquelle la décision fût prise en 1973 de distribuer les sources d'UNIX dans les universités à des fins éducatives.

Dès fin 1977 des chercheurs de l'Université de Californie redéveloppèrent une version d'Unix à partir des sources fournies par AT&T afin de faire fonctionner le système sur leurs plates-formes VAX et la baptisèrent BSD pour Berkeley Software Developpement.

Ainsi deux branches de développement des sources virent le jour :

La branche d'AT&T qui allait devenir System V de UNIX System Labs (USL)

BSD (Berkeley Software Developpement) développé par l'Université de Californie

En 1977 AT&T mit les sources d'UNIX à la disposition des autres entreprises, si bien qu'un grand nombre d'UNIX-like furent développés :

 

·         AIX, Unix commercial basé sur System V développé en février 1990 par IBM

·         Sun Solaris, Unix commercial basé sur System V et BSD développé par SUN Microsystems

·         HP-UX, Unix commercial basé sur BSD développé à partir de 1986 par Hewlett Packard

·         Ultrix, Unix commercial développé par DEC

·         IRIX, Unix commercial développé par SGI

·         Unixware, Unix commercial développé par Novell

·         Unix SCO, Unix commercial basé sur System V développé dès 1979 par Santa Cruz Operations et Hewlett Packard

·         Tru64 UNIX, Unix commercial développé par Compaq

En 1983 AT&T eût le droit de commercialiser son Unix, ce qui marqua l'apparition de UNIX System V, la version commerciale de son système Unix.

En 1985 un professeur hollandais, nommé Andrew Tannenbaum, développa un système d'exploitation minimal, baptisé Minix, afin d'enseigner la programmation système à ses étudiants.

En 1991 un étudiant finlandais, Linus Torvalds, décida de concevoir, sur le modèle Minix, un système d'exploitation capable de fonctionner sur les architectures de type 386.

Il baptisa ce système d'exploitation "Linux" et posta le message suivant sur le groupe de discussion comp.os.minix :

« Hello everybody out there using minix - I'm doing a (free) operating system (just a hobby,

won't be big and professional like gnu) for 386(486) AT clones. »

Voici un schéma non exhaustif retraçant globalement l'apparition des principaux systèmes de type Unix :

Le standard UNIX

Etant donné le grand nombre de systèmes Unix développés sur la base du System V de AT&T ou bien de BSD, la question d'un standard Unix s'est posée dès 1981 sur le groupe de discussion /etc/group afin d'assurer une portabilité maximale entre les systèmes :

 

en 1983, AT&T publie SVID (System V Interface Definition) décrivant le System V. Cette première définition est différente de POSIX

en 1984 le groupe /etc/group publie POSIX, une série de standards développés sous couvert de l'IEEE(Institute of Electrical and Electronics Engineers). POSIX est ainsi également connu sous le nom IEEE P1003.

à la même époque, un consortium de constructeurs (Sun, IBM, HP, DEC, AT&T, Unisys, ICL, ...) publie le standard X/Open Portability Guide Issue 3 (XPG3). Ce standard s'occupe tout particulièrement des différences issues de la localisation géographique (date, alphabet, ...).

AIX est le système d'exploitation de type Unix commercialisé par IBM depuis 1986. AIX est l'acronyme de Advanced Interactive eXecutive, mais seul l'acronyme est utilisé.

AIX a été conçu pour IBM par INTERACTIVE Systems à partir de IN/ix basé sur Unix System V Release 2. La première version fut lancée en janvier 1986 avec l'ordinateur IBM RT-PC (en). Le système fut porté sur les ordinateurs IBM PS/2 et IBM System/370. En 1990, AIX version 3 sortit avec les IBM RS/6000. Suite à une alliance avec IBM, Bull a un contrat OEM avec IBM pour vendre les serveurs PowerPC et POWER utilisant AIX, ce qui en fait le premier client IBM de par le monde. Bull participe au développement d'AIX, ainsi que des serveurs le supportant (pSeries). Motorola, Harris, General Automation et Apple ont également supporté AIX. À long terme, il n'est pas improbable qu'il soit remplacé par GNU/Linux, désormais supporté par IBM.

AIX 7.1, septembre 2010, Support natif du POWER7

AIX 6.1, novembre 2007, disponible sur POWER6 (aussi en AIX 5L 5.3)

AIX 5L 5.3, août 2004, Niveau minimum requis pour POWER6

AIX 5L 5.2, octobre 2002, Niveau minimum requis pour POWER5

AIX 5L 5.1, mai 2001, Niveau minimum requis pour POWER4

AIX 4.3.3, septembre 1999

AIX 4.3.2, octobre 1998

AIX 4.3.1, avril 1998

AIX 4.3, octobre 1997

AIX 4.2.1, April 1997

AIX 4.2, mai 1996

AIX 4.1.5, août 1996

AIX 4.1.4, octobre 1995

AIX 4.1.3, juillet 1995

AIX 4.1.1, octobre 1994

AIX 4.1, août 1994

AIX v4, 1994

AIX v3.2 1992

AIX v3.1

AIX v3, février 1990

AIX v2.0, dernière version : 2.2.1.

AIX v1, 1986, dernière version : 1.3.

 

AIX avait la réputation parmi ses utilisateurs d'être incohérent avec les autres systèmes *IX. Une plaisanterie habituelle était que son acronyme signifiait « Ain't unIX » (ce n'est pas Unix). Dans la pratique, UNIX avait déjà tellement de variantes panachées de BSD et de System V que peu de personnes savaient vraiment où était le standard, ni même seulement si quiconque en avait défini un. Le problème se retrouve dans une moindre mesure entre des distributions différentes de Linux (outils d'administration et d'installation haut niveau différents).

Quelques idées intéressantes d'AIX incluent des commandes telles chuser, mkuser, rmuser et autres choses similaires, permettant d'administrer les comptes de la même façon que des fichiers.

Différenciation :

Pour offrir un côté un peu attractif, AIX version 3 avait aussi en 1990 quelques atouts :

Gestion des volumes logiques (espaces disque non contigus, donc extensibles à la demande, et vus comme consécutifs) en standard.

Aide interactive en hypertexte (toute la documentation) en standard

Assistance interactive en mode plein écran à la gestion du système (avec possibilité de génération de scripts) en standard.

Mais le plus grand différenciateur d'AIX par rapport à un autre Unix est véritablement l'utilitaire "SMIT" qui permet de gérer le système depuis la reconnaissance des périphériques jusqu'à la gestion des licences et la gestion de clusters (et d'indiquer sur demande le détail des commandes correspondantes).

Smit

L'utilitaire "SMIT" System Management Interface Tool permet de gérer le système (périphériques, utilisateurs, licences, clusters, etc). Via une interface texte lancée par la commande smitty ou graphique par la commande smit, il permet à un utilisateur novice (ie. ne connaissant pas les commandes Unix) de réaliser un grand nombre d'opérations d'administration. Il indique, sur demande, le détail des commandes correspondantes.

Il garde une trace des commandes effectuées dans le fichier smit.log3.

NIM

Network Installation Manager ou NIM est un composant permettant de faire l’installation et la maintenance de systèmes AIX à partir de réseaux locaux.

 

Extrait de commentcamarche.net et wikipedia, articles sur les unix et aix.

Partager cet article
Repost0
6 juillet 2012 5 06 /07 /juillet /2012 10:57

DEEE et RECYCLAGE INFORMATIQUE

Article extrait de wikipedia juillet 2012

Les déchets d'équipements électriques et électroniques (DEEE, D3E ou PEEFV - produit électronique en fin de vie - en anglais Waste Electronic and Electrical Equipment WEEE) sont une catégorie de déchets constituée des équipements en fin de vie, fonctionnant à l'électricité ou via des champs électromagnétiques, ainsi que les équipements de production, de transfert et de mesure de ces courants et champs (ce sont surtout des ordinateurs, imprimantes, téléphones portables, appareils photos numériques, réfrigérateurs, jeux électroniques ou télévisions).

En Europe, une directive1 visant un meilleur recyclage des produits électriques et électroniques limite cette catégorie aux matériels consommant moins de 1 000 watts en courant alternatif et 1 500 watts en courant continu. Au-delà, ils sont considérés comme des déchets industriels.

Diverses lois et taxes sont mises en place dans les années 2000 pour gérer ces déchets et limiter l'utilisation des substances dangereuses (RoHS et DEEE en Europe, en Californie, China RoHS en Chine).

Enjeux en termes de développement durable

Ces déchets ont une empreinte écologique très élevée en raison des importantes quantités de ressources en eau, métaux, et énergies mobilisées par la conception, la fabrication, le transport, l'utilisation et le recyclage des composants et objets électriques et électroniques.

Les DEEE contiennent des métaux précieux (argent, or, palladium, cuivre et indium en particulier), source potentielle d'emplois, mais d'emplois dangereux s'ils ne sont pas associés à des législations et pratiques prenant en compte que certains composants des DEE sont aussi des déchets toxiques ou dangereux. Ils doivent théoriquement être traités conformément aux conventions internationales et réglementations nationales ou régionales, mais de nombreux pays envoient leurs déchets dans des pays pauvres où ils sont retraités sans précautions, et parfois par des enfants.

En informatique, de nombreux produits, sans danger lors d'une utilisation normale, sont utilisés dans un ordinateur personnel. Cependant lorsque ces produits sont abandonnés, les substances composant un ordinateur peuvent devenir toxique par le manque de stabilité. Ainsi, un moniteur à tube cathodique est constitué de PVC produisant des toxines toxiques lors de son incinération. Chaque moniteur contient jusqu'à 4 kg de plomb au niveau de l'entonnoir et dans ses composants électroniques. Un moniteur contient également du baryum et du phosphore des éléments toxiques pour l'environnement et la santé humaine. L'unité centrale est également composée de produits comme le béryllium, le plomb et le chrome hexavalent2. le matériel électrique et informatique contient aussi des Agents ignifuges bromés dont certains sont en laboratoire des perturbateurs endocriniens avérés, qui affectent l'environnement, mais auxquels les personnes qui démontent ou cassent du matériel électronique sont particulièrement exposées (Une étude suédoise a mesuré les taux de PBDE dans l'organisme de différentes catégories de travailleurs, montrant que les recycleurs de déchets électriques et électronique étaient particulièrement touchés3).

En France, par « composants dangereux provenant d'équipements électriques et électroniques », on entend les composants électroniques eux-mêmes mais aussi « des piles et accumulateurs visés

Pour une partie des déchets, les recycleries offrent une seconde vie pour des matériels réparés et nettoyés puis remis en vente à des prix moins élevés, ce qui permet de réduire encore l'empreinte écologique des utilisateurs et des matériels.  L’autre partie est simplement détruite et un certificat de destruction est remis.

considérés comme dangereux, des commutateurs au mercure, du verre (plombé et traité avec des terres rares) provenant de tubes cathodiques et autres verres activés, etc. »

Terra nova parle de « mine urbaine » et met en place en 2010 un procédé nouveau de recyclage des cartes électroniques (extraction mécanique du fer et de l'aluminium, pyrolyse de la résine époxy, et envoi en fonderie de l'agglomérat résiduel de cuivre et métaux précieux. Le gisement européen serait de 200 000 tonnes de cartes électroniques par an dont 130 000 tonnes pourraient être traitées par les fonderies4.

Recyclage

Conscient que les déchets électroniques sont une source de pollution et de danger pour l'Homme, le recyclage s'organise peu à peu dans de nombreux pays afin de récupérer notamment les métaux précieux contenus dans ces déchets. Aux États-Unis ou en France, le recyclage devient obligatoire et les déchets doivent être pris en charge par des filières et entreprises spéciales. Une règlementation internationale, la convention de Bâle, impose aux pays exportateurs de déchets dangereux à signaler au destinataire la nature des déchets. L'union européenne impose aux fabricants de produits électroniques de prendre en charge le traitement de leurs propres déchets.

Malgré cela, de nombreux déchets électroniques quittent les pays développés vers les pays en sous-développement où toute une filière s'est mise en place comme à Accra au Ghana. De nombreux enfants démontent, trient et brulent des déchets électroniques afin de récupérer les métaux comme le cuivre. Les autres débris non valorisés sont rejetés dans l'environnement ou brulés dégageant de nombreux produits dans l'air, l'eau et le sol, toxiques pour l'environnement et l'homme. La Chine est également devenue depuis les années 1980 un cimetière pour les déchets électroniques.

NOVIRENT au niveau de la France a mis en place pour des solutions de recyclages des matériels informatiques afin de répondre à ces préoccupations d’échelle planétaire. Consultez-nous pour plus d’informations.

 

Partager cet article
Repost0
25 juin 2012 1 25 /06 /juin /2012 14:08

Le Monde.fr | 20.06.2012 à 12h17 Par Robin Panfili

Le phare d'Alexandrie reprend vie. Du moins, virtuellement. Dans le cadre de son exposition temporaire « Phares », le Musée national de la Marine expose des reproductions inédites des statues d'Isis et de Ptolémée. Ces colosses de 2,50 mètres, recomposés à partir des représentations 3D des pièces archéologiques réassemblées, sont reproduits à l'échelle 1/5ème de la taille originale. Patrick Reuter, maître de conférences à l'Université Bordeaux Ségalen et chercheur à l'institut de recherche Inria, est l'initiateur de ce projet novateur mêlant les nouvelles technologies aux travaux archéologiques. Le projet entend fournir des « doubles numériques » des vestiges du phare d'Alexandrie. « La reconstruction en 3D de ces pièces archéologiques et la reconstitution virtuelle des fragments permettent de conserver et d'analyser numériquement ces colosses qui datent de l'Antiquité », explique-il.

 Le projet SeARCH commence en 2009 par une campagne d'acquisition à Alexandrie. Les recherches et les repérages s'effectuent dans les différents sites archéologiques à  Shallalat, dans le port d'Alexandrie, dans le Fort Qaitbay et dans son site sous-marin. En tout, 49 pièces archéologiques sont sélectionnées et photographiées sous tous les angles. Le procédé de photogrammétrie permet ensuite de créer une modélisation 3D. « Avec cette technique précise et peu onéreuse, on accéde plus facilement aux sites sous-marins. Certaines pièces pèsent jusqu'à quarante tonnes et restent peu accessibles. Elle est plus maniable qu'un scanner 3D, par exemple », précise Patrick Reuter.

Le logiciel SynAPS permet l'identification des points caractéristiques et des similarités entre les photographies. Le résultat fournit une forme 3D correspondant à la pierre sélectionnée. « Une fois que nous détenons les modélisations 3D, nous utilisons une visualisation expressive qui accentue les détails et exagère les reliefs », poursuit-il. Cette technique, qui simule une intensité de lumière à la surface des fragments, permet de déchiffrer les inscriptions, les gravures, les motifs. Le logiciel, capable d'analyser l'érosion sur les fragments retrouvés en zones sous-marines, s'est avéré essentiel dans l'interprétation des reproductions numériques. « L'analyse nous a permis d'identifier les détails pertinents et les détails erronés, ajoute Patrick Reuter. Nous voulons élaborer un outil de travail. Nous travaillons avec les archéologues afin qu'ils interprètent nos résultats, qu'ils valident ou invalident nos hypothèses. Nous fournissons un outil qui leur permet de réagir à nos propositions géométriques ».

 

Ce travail transdisciplinaire entre chercheurs en informatique et archéologues est donc le moteur du projet SeARCH, financé par l'Agence nationale de la recherche. Le décalage entre les méthodes de travail respectives figurait comme un enjeu principal. « Un projet d'archéologie s'étend sur des dizaines d'années, tandis qu'un projet informatique ou mathématique est de plus courte durée. Cette différence demande une organisation, mais les méthodes scientifiques sont heureusement les mêmes pour tous », raconte Nadine Couture, professeur à l'Ecole supérieure des technologies industrielles avancées (ESTIA). Cee établissement forme des ingénieurs en technologies numériques aux nouveaux modes d'interactions homme-machine.

Il faudrait des décennies pour modéliser les 3000 fragments qui sommeillent dans les ruines ou dans les eaux du port d'Alexandrie. Mais Patrick Reuter a le sentiment du travail accompli. « Nous avons conçu de nouvelles méthodes de travail pour les archéologues, permettant de mieux étudier le patrimoine. De plus, le projet nous a permis de devenir membre du réseau d'excellence européen V-Must sur les musées virtuels », se réjouit-il.

 

Robin Panfili

Partager cet article
Repost0
1 décembre 2011 4 01 /12 /décembre /2011 10:47

Les transmetteurs SFP (Small Form-factor Pluggable) (encore appelés SFP ou Mini-GBIC) sont des unités de transmission optiques et électriques d’entrée/de sortie permutables à chaud, chacune d’elles fournissant une interface distincte conforme aux spécifications prédéterminées et aux normes connues.  Le transmetteur Small Form-Factor Pluggable ( SFP ) est un appareil compact, émetteur-récepteur utilisé à la fois pour les télécommunications et les communications de données des applications. Il s'interface d'un réseau périphérique carte mère (pour un switch , routeur , convertisseur de média ou un appareil similaire) à une fibre optique ou en cuivre du câble réseau. C'est un format développé conjointement l'industrie populaires et soutenus par de nombreux fournisseurs de composants de réseau. émetteurs-récepteurs SFP sont conçues pour soutenir SONET , Ethernet Gigabit , Fibre Channel , et d'autres normes de communication.


SFP---4GB-4KM-LongWave-SFP-OPTIC-BRCD-copie-1.jpg 

Partager cet article
Repost0
14 octobre 2011 5 14 /10 /octobre /2011 14:28
Peter Chou, PDG de HTC.
agrandir la photo

il suffit de tenir les mobiles en main pour se rendre compte que la qualité est au rendez-vous : les contrastes sont marqués, et la luminosité, soutenue. Nous ne manquerons pas de mesurer ces valeurs lors de nos prochains tests. Pas de révolution, donc, seulement du solide : un processeur à 1 GHz pour l'impressionnant (par sa taille et son poids de 164 g) Desire HD, un autre à 800 MHz pour le Desire Z, 1,5 Go de mémoire de stockage pour chacun pour installer des programmes, ce qui reste très confortable, et respectivement 768 et 512 Mo de mémoire vive pour les exécuter.  (01net le 15/09/10)

Partager cet article
Repost0
18 juillet 2011 1 18 /07 /juillet /2011 09:36

Cette application VMware view est un logiciel de contrôle à distance d’ordinateur. VMWare View pour Android est une version pour les terminaux à partir de la version 2.2 d’Android également pris en charge sur les tablettes tactiles sous Android 3.0. Cette application vous permet de prendre à distance le contrôle d'un ordinateur grâce à votre terminal sous Android. 

      VMWare View en quelques points :

  1. Prendre le contrôle de quatre ordinateurs
  2. Application utilisable en tâche de fond sur téléphones et tablettes
  3. Pavé tactile pour navigation sans souris
  4. Design adapté à une connection sur PC Windows

Lien vers le site web : http://www.vmware.com/fr/products/desktop_virtualization/view/

Lien vers le Market Android : https://market.android.com/details?id=com.vmware.view.client.android

La vidéo : 


 

 

 

 

 

Partager cet article
Repost0