#DoIT Data Network Services
Explore tagged Tumblr posts
Text
Jaret Chiles, Chief Services Officer, DoiT – Interview Series
New Post has been published on https://thedigitalinsider.com/jaret-chiles-chief-services-officer-doit-interview-series/
Jaret Chiles, Chief Services Officer, DoiT – Interview Series
Jaret Chiles is the chief services officer (CSO) of DoiT and is responsible for all aspects of their client services organization. With 25+ years of experience across consulting and managed services, cloud adoption, technical sales, security and compliance, he is instrumental in building out a key value driver for DoiT’s business: services, consulting, and support offerings. Since joining the company, Jaret has led development of a scalable services strategy that enables DoiT to grow rapidly – without compromising its unrivaled expertise.
DoiT combines the power of intelligent software products with access to unrivaled multicloud expertise to solve the most complicated and important cloud problems. DoiT’s product portfolio provides the tools to manage cloud cost and infrastructure without compromising the speed or quality of engineering initiatives.
What initially attracted you to computer science and how did you find yourself involved in cloud computing?
My father was an engineer and exposed me to building and modifying computers as a child in the early 80s. My first computer was a TRS-80 Model 4 on which I learned how to do some basic programming by the time I was in elementary school. It’s been an interesting journey and I never really considered working in any other field. During high school, I had my first job working evenings and weekends at an internet service provider doing dial-up, broadband, email and website support. While pursuing a computer science degree in college, I helped run the campus data center and networks and led my first team.
I went on to work in many different roles at a managed hosting services provider. When AWS began to disrupt our legacy models, I recognized the undeniable potential and quickly adapted to the cloud computing era as a cloud architect from the very first release of OpenStack to all the major hyperscalers. Ever since I’ve been focused on helping companies large and small understand how to unlock the value that cloud computing creates for their businesses. My passion for computing has never strayed, but now I find it most rewarding as a servant leader supporting the success and growth of others who share my passion.
Can you elaborate on how DoiT’s intelligent software products and multicloud expertise specifically address the most pressing cloud challenges faced by organizations today?
Through our products and services, DoiT International helps cloud-driven companies harness the public cloud to drive business growth. We’re a full-service provider of intelligent multicloud technology, so we deliver consulting, support and training to solve essential challenges like migration costs and the sheer complexity of cloud usage.
We also provide full-service FinOps technology along with the procurement advantages that organizations need to solve the challenges of navigating and automating public cloud investments. Some of the essential capabilities we provide include multicloud budgeting, reporting, optimization and governance.
DoiT’s global team of cloud experts have decades of experience in the analytics, optimization and governance of cloud architecture, as well as specializations in Kubernetes and artificial intelligence (AI). We also stay on top of emerging technologies, so our clients can take full advantage of them, securely and safely. Our experts have technical leadership backgrounds across verticals. Daily, I’m completely humbled by the actual level of expertise in our organization, I’ve never seen anything like it elsewhere.
How does DoiT Cloud Solve enhance the cloud experience for users, and could you share some success stories or examples of challenges it has helped resolve?
Doit Cloud Solve is a services offering that allows customers to unlock real value in cloud computing with unlimited access to the top experts in the industry. We work backward from what customers actually need, with less friction than traditional consulting and support contracting models. Using Generative AI as an example, we leverage a three-part approach:
Discovery: We delve into specific business objectives, gathering and refining data to lay the groundwork for innovation;
Innovation: We guide feature selection, model training and validation to meet tailored needs; and
Deployment and optimization: We implement and refine generative AI strategy, ensuring your team executes on a seamless integration and with maximum impact.
The DoiT Cloud Solve team provides multicloud consulting, unlimited consultancy and technical support as well as cloud-native training. Customers are able to create optimized architectures and configurations while enhancing the skills and capabilities across their teams, which leads to more efficient and sustainable cloud growth. From the core of the cloud stack with compute, storage and networking, through the full cloud-native product portfolio, to the most advanced and disruptive cloud solutions.
In terms of cloud cost optimization, what strategies or technologies does DoiT employ to help clients maximize their cloud investments while maintaining or enhancing service quality?
Cost optimization starts with a well-designed architecture. DoiT consultants and engineers help customers ensure their cloud architectures are future-ready and assist in creating migration strategies.
Additionally, every IT organization wants to get their desired benefits with the lowest possible spend, and to do this, IT needs timely information and tools that make it simple to manage cloud services. DoiT’s intelligent technology does exactly this, helping engineering and FinOps leaders monitor, manage and optimize their cloud usage and spend.
We help IT utilize advanced technologies like GenAI for both internal and customer-facing workflows, without running into unforeseen massive compute and cost overruns.
DoiT offers a suite of proprietary products like Flexsave and Cloud Navigator. How do these products differentiate from other tools available in the market, and what unique advantages do they offer to your clients?
What sets DoiT apart is its unrivaled expertise, full-service FinOps technology and the procurement advantage that we provide to solve the challenges of navigating and automating public cloud investments. These three pillars operating in harmony is a game changer for customers.
DoiT Flexsave uniquely removes the risk, forecasting and tedious work required for managing a complex portfolio of compute commitments and reservations. Compute costs can often represent more than half of an organization’s cloud spend, so accessing optimized pricing on those workloads is an easy way to lower monthly bills. Flexsave automates commitments, providing cost savings without the need to monitor usage, track expiration and renewal dates, while modifying instances to fit an organization’s reservations.
Security is a major concern in cloud computing. Can you discuss DoiT’s approach to cloud security and how it helps organizations strengthen their security posture?
Security must be part of every step in a customer’s cloud journey. It’s not one-and-done up front, and you don’t bolt it on at the end either. Security is a consideration baked into everything we do from products to services.
As part of architecture reviews, or as a focused session, DoiT Cloud Solve experts will advise on security strategies as well as perform benchmark security reviews of your environment including vulnerability assessment and security control analysis. A sound architecture and proper configuration are paramount to a secure cloud environment, but also careful consideration of customers’ regular operational procedures must be accounted for.
Given the increasing complexity of cloud environments, how does DoiT assist organizations in navigating multicloud strategies and managing infrastructure across multiple providers?
There are many different reasons customers might choose to leverage a multi-cloud strategy. At DoiT we believe in working backwards from the business objectives. Our consultants will help develop a strategy and architecture that meets business objectives without introducing unnecessary complexity.
One of the many challenges in managing a multi-cloud environment on a day-to-day basis is having visibility across all platforms in a consistent and operational manner. DoiT Cloud Navigator extends visibility and anomaly detection capabilities to overcome these challenges and provide the FinOps tools needed manage cloud costs and infrastructure without compromising the speed or quality of engineering initiatives. This allows for a responsible scaling of the business.
Machine learning and AI are becoming critical components of modern IT strategies. How does DoiT support businesses in integrating these technologies into their operations and leveraging them for competitive advantage?
Following the three-part approach mentioned previously, DoiT’s Cloud Solve enables IT to work with our experienced cloud architects, and provides access to knowledge transfer and other resources to enable them to evaluate internal readiness, identify company-specific use cases and collaboratively create customized GenAI solutions.
DoiT also partners with AWS and Google to help their users develop generative AI solutions using those platforms and their supporting applications.
The process of cloud migration can be daunting for many organizations. What key factors should companies consider to ensure a smooth and successful transition to the cloud with DoiT’s assistance?
A successful migration starts with establishing clear business objectives and success criteria. There are many factors to keep in mind when planning and executing a migration to the cloud, including data governance, security and privacy, cost management, scalability, skills and expertise, potential service disruptions and legacy system compatibility. Overlooking any of these and others can lead to delays and cost overruns for the migration.
What emerging trends or technologies in cloud computing is DoiT particularly excited about, and how do you plan to incorporate these into your offerings to drive future growth and innovation?
We are a company full of passionate cloud experts and every new technology hype cycle excites us immensely. That said, our many combined years of experience have taught us not to focus on finding ways to forcefully fit a new exciting technology in a business, but rather to understand what use cases make sense for a business and add real value. This is a very common mistake customers make when they see new emerging technologies and ask for help implementing them in their environments.
Generative AI right now has us very excited for a number of reasons, but the main reason is we have uncovered so many high value use cases for businesses across industries to adopt the technology. Starting with basic productivity and insight use cases, nearly everyone can benefit from GenAI. Moving from there on into AI-powered service development and disruptive GenAI product technologies, we believe the skies are the limit for our customers and we’d love to help them find their path to adoption and production.
Thank you for the great interview, readers who wish to learn more should visit DoiT.
#ai#AI strategy#AI-powered#Analysis#Analytics#applications#approach#architecture#artificial#Artificial Intelligence#assessment#AWS#benchmark#budgeting#Building#Business#Cloud#Cloud Architecture#cloud challenges#cloud computing#cloud environment#cloud migration#Cloud Security#cloud services#cloud solutions#cloud strategy#Cloud-Native#college#Companies#complexity
0 notes
Text
Nichrome: Making A Mark In The Ever-Changing Packaging World

The packaging sector is at a turning point in its history. Today, more than ever, companies need high performance machinery that meets quality and productivity requirements.
Environmental concerns are forcing the packaging industry to reinvent itself, especially through the use of eco-friendly materials that are less energy-intensive, more easily recycled. While plastic is widely used thanks to its many advantages especially its low weight per unit, glass and metal containers are making a comeback in certain categories, driven by environmental concerns. Even the flexible packaging industry is looking for biodegradable materials.
So packaging is continuously evolving. Technological innovations and growing automation have transformed the industry. Some of the most notice able developments include:
Connectivity: The various functions involved in packaging are integrated thanks to automation. Users get a clearer picture of the various sub-processes and plant conditions which helps to improve maintenance and optimise packaging processes.
Digital engineering: Most processes are now digitised; manual operations have been replaced by automated speed and accuracy. Errors in the process can also be identified and rectified sooner with digital engineering.
Space saving: The packaging machinery industry is adopting modular machine configuration and re-designing equipment to save space and reduce machine footprint.
Simplicity: The ability of companies to integrate new machines or lines easily into existing systems is essential for them to adapt to the changing technology. The growing need to simplify diagnostics and maintenance is giving birth to more web-based service tools and innovative machine concepts.
NICHROME’S PACKAGING SOLUTIONS
Since Nichrome developed India's first indigenous milk packaging machine in 1977, it has been at the forefront of next-generation packaging technologies; a brand trusted for its rich legacy of pioneering innovation, extensive domain knowledge and manufacturing competency in packaging systems.
For enterprises big and small, for applications existing and emerging, Nichrome offers infinite possibilities in integrated, automated packaging solutions. With its strong thrust on R&D, Nichrome partners with customers through the complete lifecycle, offering application-specific solutions, backed by dependable service and support.
It could be a small variation in a pouch format or customization of an existing machine; a pro-actively developed filling system or consultancy & system design for a complete packaging plant - Nichrome has the expertise, capabilities and innovation to transform productivity and enrich customer relationships in endless ways.
Based in Pune, India, Nichrome’s sales & service network spans India and the world. It has presence in 45 countries and more than 7000 successful installations worldwide.
NICHROME’S OFFERINGS
Horizontal packaging machine, vertical form fill seal machine, tray sealing machine, multilane sachet packaging machine, bottle or tin filling line, blister packaging machine, mini dairy plants, complete end-to-end integrated packaging system, filling systems - the gamut of Nichrome's offering sis vast and comprehensive.
Nichrome designs and manufactured automated packaging machines for almost any application in Food, Pharma and other verticals.
Nichrome is among the leading edible oil filling machine manufacturers who is equally adept at supplying powder filling machines, salt packaging machines, ketchup packaging machines, milk packaging or grain packaging machines. The Nichrome portfolio also includes shampoo packing machines, cosmetic packaging machine ,tablet & capsule packaging lines and even packaging solutions for pet food, dyes & pigments, adhesives, agrochemicals & fertilisers. Indeed the list of applications is endless.
Nichrome’s inhouse R&D works tirelessly to upgrade existing machinery and innovate new solutions that meet the challenges of the times. Compact footprint, advanced technology, high speed performance, ease of operations and long service life are the hallmark of Nichrome’s packaging machines. Nichrome ensures that its machines can be easily integrated (upward or downward) into existing plant systems, and can also be modified to adapt to some changing needs.
A contemporary feature of Nichrome’s machines is the DOIT (data over Internet) which uses Cloud connectivity to provide anytime, anywhere access of the packaging machine. Users can monitor, evaluate and even change machine operation parameters from any connected device, anywhere in the world.
Today, more than four decades since Nichrome developed India’s first indigenous milk pouch packaging machine, Nichrome continues to make a mark on the packaging world, leading the way with innovation, technology, quality and service that enhances productivity and profitability for its customer’s business.
#milk packaging machine#mini diary#shampoo packing machines#ketchup packaging machines#grain packaging machines#vertical form fill seal machine#sachet packaging machine#automated packaging machines
0 notes
Link
Close this content, you can also use the Escape key at anytime
The Indian ExpressBank, Boom, BustGeorge Mathew, Sunny Verma, Sandeep Singh
The Indian Express
9 hours ago
Rana Kapoor, a former Bank of America executive who helped Dutch giant Rabobank set up an NBFC (non-banking financial company) business in India in 1998, stood out for his flamboyance in a business that is considered staid and which calls for utmost prudence.
After providing services to Yes Bank for years, a vendor was keen to terminate the contract. But no sooner had he left the Yes Bank office after communicating this to the bank's then CEO Rana Kapoor, than he got a call from Kapoor's secretary seeking an seeking an appointment the next day to "sort things out".
The following morning, half an hour before the appointed time, there landed at the vendor’s office hundreds of small pots of money plant, along with an expensive art piece. As well as a letter from Kapoor to the vendor, in which he called the latter a “partner” in Yes Bank’s growth story, and apologised “for not valuing the services offered”. The letter also promised to triple the fee Yes Bank would pay henceforth. Even as the vendor was recovering from all the activity around his office, Kapoor walked in at the appointed hour to talk the vendor out of his decision. Needless to say, the vendor stayed on.
Rana Kapoor, a former Bank of America executive who helped Dutch giant Rabobank set up an NBFC (non-banking financial company) business in India in 1998, stood out for his flamboyance in a business that is considered staid and which calls for utmost prudence. It was this flamboyance — coupled with unbridled aggression in his financial moves — that drove him to take risky decisions and, as it now turns out, allegedly corrupt ones with quid pro quo built in.
Read| Yes Bank revival plan unveiled: Top private banks step in, ban lifts in 3 days
Kapoor’s banking experience earned him and his brother-in-law Ashok Kapur (husband of Rana Kapoor’s wife’s sister), who died in the 26/11 terror attack at Mumbai’s Oberoi Hotel, a rare banking licence in 2004, along with Kotak Mahindra Bank Ltd.
Yes Bank promoter Rana Kapoor after his arrest in Mumbai on March 8. (File photo)
Around the same time, July 24, 2004, the Reserve Bank of India (RBI), then headed by Y V Reddy, had taken everyone by surprise by announcing a moratorium on private sector lender Global Trust Bank (GTB), which was then reeling under huge losses and bad loans. The bank was merged with public sector Oriental Bank of Commerce (OBC) within 48 hours under an RBI-led rescue plan.
Over 15 years later, in a repeat of history, the central bank on March 5 announced a moratorium on Yes Bank, restricting withdrawals to Rs 50,000 per depositor till April 3. That made Yes the first private bank to go under since GTB. After long grilling and raids on his properties, Kapoor was arrested in Mumbai on March 8.
The RBI’s announcement of moratorium was followed by a reconstruction plan for Yes Bank and capital infusion by banks and financial institutions. While the State Bank of India announced equity infusion of Rs 7,250 crore on March 12, ICICI Bank, Kotak Mahindra Bank, HDFC and Axis Bank on Friday said their boards have approved investments of Rs 1,000 crore, Rs 500 crore, Rs 1,000 crore and Rs 600 crore, respectively, in Yes Bank. Some more private investors are also expected to pitch in.
Red flags all along
There are other uncanny parallels between Yes Bank’s fall and GTB’s — from allegations of loans to dubious firms to money laundering, kickbacks and under-reporting of bad loans and losses.
According to the Enforcement Directorate (ED), Kapoor laundered money using his dominant position at Yes Bank, at the cost of depositors, investors and the other stakeholders. There are several loans that the bank gave over the years that turned bad, raising questions over the credit appraisal and the underwriting standards at the bank.
Read| Explained: How Yes Bank ran into crisis
Industry executives say that while the bank’s Board of Directors will have to account for some questionable decision-making by its promoter, the RBI will also have to share some blame. They contend that the banking regulator should have been more prompt about detection of stressed books and the lack of corporate governance standards at Yes Bank.
Bankers in Mumbai also blame credit rating agencies for not raising any alarm, despite several red flags since 2015 — from rapid expansion of the bank’s loan books (34% over the previous five years as compared to 10-12% for other banks), to lending to highly-leveraged corporates, and large-scale suppression of non-performing assets or NPAs (loans due for repayment for over 90 days). The figure stood at over Rs 6,000 crore three years ago.
In 2015, the RBI, under then Governor Raghuram Rajan, had started a special inspection of banks’ balance sheets, called asset quality review. The RBI inspectors found that Yes Bank had suppressed its NPAs — reportedly underreporting the same by Rs 2,299 crore in 2018-19, Rs 6,355 crore in FY 2017 and over Rs 4,000 crore in FY2016 — as well as cooked up its balance sheet.
All this should have set off alarm bells and prompted tougher action, but not much was done and Kapoor continued to call the shots.
The RBI finally cracked down when the bank’s NPAs differed from its assessment. It ordered an early exit of Rana Kapoor from the bank, forcing him to step down as MD and CEO in January 2019, and placed its nominee director on Yes Bank’s Board. But by then, it was already too late.
Meanwhile, the bank’s bad loans kept growing. Following the RBI’s asset quality review in 2019, its gross NPAs surged 87 per cent from a year ago, with the bulk of the jump in the March and June quarters. Its net NPAs more than doubled.
The bank, however, still refuted the charge of suppression of bad loans. “As mandated and required under regulations, the bank has been making all disclosures to stakeholders on NPA divergence related findings made by the regulator,” Yes Bank had said in a statement.
In May 2019, the RBI appointed former deputy governor R Gandhi as additional director on the board of Yes Bank for two years.
Modus operandi
One of the reasons for Yes Bank’s troubles was the massive increase in its loan book between 2014 and 2019. From total advances of Rs 55,633 crore in 2014, the number grew nearly five times to Rs 2,41,500 crore in 2019 — a CAGR or compounded annual growth rate of 34.1 per cent, as compared to roughly 10-12 per cent for other lenders.
When many of its borrowers such as DHFL and Reliance Infra, among others, went belly up, and given that it had not done adequate provisioning against such losses, Yes Bank’s entire business model unravelled.
This model rested on targeting lending to corporates as opposed to building a slow and steady retail portfolio.
Left without funds following the global financial crisis of 2008 that came after the credit boom of 2003-2007, Indian corporates had been finding the going tough, with projects stalled and stuck with overcapacity.
“Sensing the mood in the economy, most banks were not willing to lend funds to certain promoters and projects. But many of them went to Yes Bank and Rana Kapoor obliged. The appraisal process of these loans remains a mystery,” said a former official of a leading nationalised bank who has watched Kapoor since the days he headed Bank of America’s wholesale banking business and later became the Country Head of ANZ Grindlays Bank.
“Yes Bank’s mantra under Rana Kapoor was to aggressively grow the corporate loan book while taking in high-cost wholesale deposits. Growing a retail portfolio requires effort, energy and a large branch network built over years. It also pays off in the long run in terms of lower delinquency. On the contrary, a bank can make an advance of Rs 15,000 crore to a single corporate and surpass other banks by a wide margin. And when this aggression to grow the book is combined with poor risk control, and weak appraisal and underwriting standards, it can play havoc on the institution. This is precisely what happened at Yes Bank,” a senior banker told The Sunday Express.
According to the latest available financial data, 80.2 per cent of Yes Bank’s total loan advances were to corporates, with retail portfolio accounting for the rest.
While excessive leverage by many of the corporates to whom Yes Bank lent caused stress, industry sources also point to the lender’s alleged intent to hide its NPAs through an “ever-greening of loans”.
The typical modus operandi: when a large corporate borrower of Yes Bank’s loan was about to default on its repayment, the bank roped in some other agency or an NBFC to arrange a stop-gap loan for the borrower. “While this delayed the problem, it was bound to have blown up sooner or later. It’s only the extent of the blow-up that caught the corporate community by surprise,” said an industry executive who has watched Kapoor closely and who asked not to be named.
On March 11, the ED, which has arrested Rana Kapoor on money laundering charges, declared in a special court in Mumbai that of the Rs 30,000 crore that Yes Bank sanctioned during his tenure, Rs 20,000 crore had turned into NPAs. The ED also alleged that it had found details of Rs 5,000 crore in kickbacks that Kapoor received while extending these loans.
Sources said the ED charges of quid pro quo were based on a forensic report by audit firm KPMG on DHFL, one of Yes Bank’s borrowers which is also under RBI moratorium.
Kapoor was questioned by the ED over a Rs 600-crore loan from a DHFL firm to DoIT Urban Ventures (India) Private Ltd, a company owned by Kapoor’s family, at a time when
Yes Bank had a loan exposure of over Rs 3,700 crore to DHFL.
DoIT was incorporated in 2012 with Rana Kapoor’s wife Bindu as its director. It currently has his daughters Roshini Kapoor and Radha Kapoor Khanna as its directors. The company has no employees and in the year ended March 2019, it incurred a loss of over Rs 48 crore on a revenue of Rs 59.36 crore.
Kapoor extended loans to several other corporates through this route and the kickbacks were allegedly routed to companies floated by the Kapoor family, the ED said in the court. These kickbacks were allegedly used to acquire properties in Delhi, Mumbai, the UK and the US, the ED said.
Though Kapoor travelled to London often, he chose to live in Samudra Mahal, a tony complex in downtown Worli area of Mumbai which he had rented from Congress-turned-BJP politician Jyotiraditya Scindia.
By 2016-17, RBI auditors had wind of Kapoor’s alleged loan-for-commission modus operandi. In September 2018, during then Governor Urjit Patel’s tenure, the central bank had asked Kapoor to leave the bank. However, for reasons that are inexplicable, no other action was initiated against him by the central bank. “The RBI could have initiated prompt corrective action (PCA) against the bank and slapped curbs on lending. But the RBI allowed the bank to function freely... that too when nearly a dozen PSU banks were under PCA curbs of the RBI due to the high level of bad loans,” said a banking source.
On March 6, Finance Minister Nirmala Sitharaman said the RBI had stepped up monitoring of the bank since 2017, when governance lapses at the bank starting surfacing. “In September 2018, they (the RBI) clearly said that the leadership has to change, they did not allow further continuation of the Chief Executive’s term (and a new CEO was appointed)... These steps the RBI has been taking to keep the bank healthy,” she said.
The man, his business
Just ahead of completing his 28-month term as president of the industry body Assocham, Rana Kapoor had planned to come out with a coffee table book compiling pictures of his tenure at the head of the body. The team tasked with the book was also asked by Kapoor to get it delivered to all senior journalists across the country. A source privy to the conversation said that when questions were raised by some at the ideation stage, as to what purpose such a book would serve, Kapoor reportedly got agitated and said, “If you have to grow and create wealth, you have to keep your inhibitions aside and you need to be focused on what you want to do. Don’t second guess others, just do it.”
There are many such anecdotes of the man and his propensity, as Kapoor sought to be counted among the high and mighty, including how, at a key awards night in Mumbai in 2012, he managed to get a front-row seat that was reserved for a top investor by telling the organisers that he had met the investor during his morning walk and the latter had told him he was unlikely to come for the function. The top investor, of course, walked in 10-15 minutes later to find Kapoor in his seat.
Those who know him also talk about his tendency to be over-controlling. “He would deal directly with all big clients. Even his senior employees weren’t empowered to take decisions,” said a former Yes Bank employee, who worked at the mid-management level.
But even his worst critics don’t deny his sharp business acumen. “Many a time, while offering a loan to a borrower, Kapoor would push for an upfront interest to be paid to the bank, thereby securing the interest of the bank to an extent,” said a senior official with an NBFC.
Kapoor once said he would never sell his shares in Yes Bank and compared them to diamonds. “Diamonds are Forever: My Promoter shares of @YESBANK are invaluable to me. I will eventually bequeath my @YESBANK promoter shares to my 3 daughters and subsequently to their children, with a request in my Will stating not to sell a single share, as Diamonds are Forever,” he said in a tweet on September 28, 2018.
By a year later, Kapoor and his family would have sold their entire stake in the bank.
0 notes
Text
Cisco ajoute la rsolution proactive des problmes sa suite logicielle pour datacenter
Cisco ajoute la rsolution proactive des problmes sa suite logicielle pour datacenter
[ad_1]
Grce ces ajouts, la suite logicielle Data Center Network Assurance and Insights de Cisco pourra dtecter les problmes du rseau switch fabric avant qu’ils n’affectent les services.
Le module que Ciscoa ajouté à sa suite Data Center Network Assurance and Insights doit permettre de réparer de manière proactive un problème réseau avant qu’il ne provoque un cauchemar technologique. Composante…
View On WordPress
0 notes
Link
L’étude « iLife » de l’agence de communication BETC Digital menée auprès de plus de 12 000 adultes dans 32 pays nous révèle que 56 % des Millenials dans le monde pensent que l’intelligence artificielle sera bénéfique pour la société, ils sont seulement 33 %, en France, 53 % aux états unis et 89 % en Chine. 48 % des prosumers mondiaux pensent, eux, que l’intelligence artificielle sera un fer de lance du progrès. Ils sont seulement 39 % en France, 40% aux Etats-Unis et 70% en Chine. La Chine, qui vise la première place du monde de l’IA en 2025, est, semble-t-il, la plus enthousiaste.

On peut résumer l’IA à un système, des logiciels ou algorithmes qui traiteront des taches qui ne peuvent être traitées par l’humain pour des questions de coûts de volumes, de délais ou de qualités. L’IA ou Intelligence augmentée, permet avant tout de répertorier de très nombreux faits, actions et engagements, et d’analyser les interactions entre différentes sollicitations, les corréler et en tirer des enseignements qui déboucheront sur une réaction, une adaptation ou une prévision.
L’IA, ou Intelligence augmentée, est à la fois descriptive, c’est-à-dire qu’elle analyse ce qui c’est déjà produit, mais est aussi prédictive, c’est-à-dire qu’elle exploite l’existant et en tire des enseignements permettant d’anticiper un événement.
L’IA est en fait la corrélation de technologies, de sciences dures, et de neurobiologie computationnelle permettant d’imiter certaines fonctions dites cognitives. L’IA permet avant tout de gérer un colossal volume de données.
Plus la quantité d’expériences est importante plus le modèle est performant, plus le niveau de fiabilité de la prédiction augmente. La seule différence entre l’humain & l’IA ou Intelligence augmentée, c’est donc cette capacité de stockage d’informations qui est quasiment illimitée pour les systèmes, et bien sûr la différence de puissance et rapidité de calcul entre l’humain et l’IA ou Intelligence augmentée.
Un outil marketing indispensable pour les prédictions comportementales
L’IA amène des solutions pour toutes les problématiques liées au ciblage, à l’acquisition, à l’analyse d’audience, à la segmentation, au scoring et à la fidélisation. Grâce aussi à ses analyses comportementales corrélées, l’IA permet surtout de meilleures prédictions comportementales. Enfin, par sa rapidité de traitement, elle permet un marketing prédictif donnant souvent une longueur d’avance par rapport aux concurrents. L’IA est aussi capable d’identifier les appétences naturelles des consommateurs. Les entreprises peuvent alors développer un marketing de préconisation suggérant les produits qui conviennent à un moment donné. Les entreprises vous proposeront donc demain l’achat d’un produit ou d’un service éventuellement nécessaire, alors que vous n’avez pas encore pris conscience de ce besoin.
Un outil générant aussi et c’est nouveau une tarification dynamique
De surcroît, et cela est important, l’IA permettra la généralisation de la “tarification dynamique”, en fait l’individualisation des prix. Les VTC utilisent déjà le critère “offre et demande” non autorisé aux taxis. Critère qui peut faire passer le prix de la course Paris vers Charles de Gaulle de 40 à 70 euros. Rien n’interdit demain d’ajouter comme critère de prix vos revenus, votre localisation, vos habitudes d’achat, la météo. Avec l’IA, les critères individualisation sont infinis !
Qu’est-ce que le Deep Learning ?
Les réseaux de neurones artificiels s’inspirent du cerveau humain pour apprendre aux machines à apprendre. Ce segment assez ancien de l’IA voit ses recherches évoluer rapidement grâce aux nouvelles puissances de calcul. Une des premières applications du Deep Learning est la traduction. Un marché mondial annuel de 40 milliards de dollars. Nombreux sont ceux qui ont abandonné Google translate à cause de ses incohérences comiques ou de ses contresens. Dans ce domaine, la révolution a commencé en 2000 avec la méthode dite de « word embedding » ou espace virtuel incluant tous les mots d’une langue. Mots disposés ensuite en fonction du nombre de cohérences d’apparitions.
Faut-il considérer que le Deep Learning basé sur des probabilités qui semblent être aléatoires pour des profanes et qui sont prévisibles pour des professionnels est en train de supplanter le courant traditionnel de l’intelligence artificielle ? On peut expliquer ce qu’est le Deep Learning, mais on ne peut expliquer ce que fait le Deep Learning dans sa « black box ».
Cela amène aussi à faire un parallèle avec le monde médical et particulièrement le monde pharmaceutique. On pourrait donc comparer les black boxes du Deep Learning aux médicaments. On ne sait pas comment ils guérissent, mais les process de tests nous permettent de mesurer leur efficacité ainsi que les effets secondaires.
Et on ne doit pas oublier “l’espérance mathématique” (bien connu des joueurs de poker) qui correspond à la somme des valeurs possibles d’une variante aléatoires, chaque valeur étant multipliée par sa probabilité d’occurrence. Exemple d’espérance mathématique qui sera éliminée par l’intelligence artificielle : vous êtes hyper diplômé, vous habitez dans un quartier difficile, votre entourage est peu éduqué. Auparavant, en multipliant les candidatures vous augmentiez vos chances ; avec l’IA et ses énormes bases de données statistiques, vos chances sont réduites à zéro.
Le secteur médical est vraisemblablement le 2e secteur d’activités à bénéficier de l’IA
Grâce à ses exponentielles bases de données, l’IA permet de développer une approche prédictive et donc de diagnostiquer plus rapidement les pathologies. En étant à l’écoute permanente des signaux faibles, elle permet aussi l’accompagnement médical de pathologies chroniques et améliore la prévention des risques dits secondaires ou collatéraux. Cela permet donc d’agir très en amont et de réduire les coûts médicaux.
L’industrie et les services sont déjà utilisateurs de l’IA
Toutes les industries performantes sont déjà robotisées. Les robots sont déjà connectés et bardés de capteurs. L’IA permet surtout, grâce à ses bases de données, d’améliorer les performances, d’anticiper les pannes et de faire des économies de maintenance.
Dans les services, hormis les activités administratives, les banques et autres services financiers qui ont déjà fait le saut de l’IA depuis longtemps pour certains, il est assez difficile d’identifier les tâches aléatoires non répétitives qui pourraient être améliorées et traitées par l’IA.
Mais l’IA sera déterminante dans les secteurs de la mobilité et des transports. L’industrie logistique verra-t-elle son modèle d’exploitation évoluer d’actions réactives à un paradigme proactif et prédictif, ce qui devrait apporter une meilleure compréhension, une baisse des coûts et une robotisation des activités de back-office ?
Enfin, que sont les GAN, Generative Adversarial Networks ?
On ne peut pas parler de l’IA sans évoquer les GAN ou réseaux antagonistes génératifs. Lorsque le nombre de data n’est pas suffisant pour concurrencer la Chine, ces GAN vont générer des données artificielles. Jusqu’à très récemment, des humains validaient les résultats des GAN. Cela fut remplacé par la création de deux réseaux de GAN, le générateur et le discriminateur. Le générateur va produire de la data, ou images, pour nourrir un algorithme, et le discriminateur va juger si la data ou image respecte les règles. Le rôle du générateur étant de duper le discriminateur. En résumé, tout cela pourrait nous amener à perdre la capacité de distinguer le réel ou la vérité par rapport aux données générées par l’Intelligence artificielle.
En sciences, où commence la science-fiction ? La super Intelligence artificielle ou Artificial General Intelligence AGI semble être l’héritière du Golem, un être artificiel de la Prague cabalistique du XVIe siècle, un Golem se rapprochant de Dieu. L’évolution de l’IA étant imprévisible, personne ne peut savoir où en seront les neurones artificiels dans 5 ans. En résumé, globalement est-ce que demain ce sont les machines qui décideront pour nous dans ce monde « infobèse » ? La machine gérera-t-elle certaines de nos tâches quotidiennes ? Serons-nous guidés et conditionnés par les suggestions des algorithmes ? Vraisemblablement. Néanmoins, après certaines dérives de méga entreprises transnationales, le libre-arbitre de l’humain pourrait reprendre progressivement le dessus.
0 notes
Text
Health Data Hub : dix premiers projets pour faire émerger la future plateforme de données de santé
La mission de préfiguration du Health Data Hub, pilotée par Jean-Marc Aubert, directeur de la recherche, des études, de l’évaluation et des statistiques (Drees), a dévoilé le 16 avril les 10 lauréats du premier appel à projets pour la création de cette future plateforme de données de santé, en présence d'Agnès Buzyn
Né d'un rapport rédigé par Dominique Polton, présidente de l'Institut national de données de santé (INDS), le Dr Marc Cuggia, professeur d'informatique médicale et praticien hospitalier au CHU de Rennes, et Gilles Wainrib, président-fondateur de la start-up Owkin, le Health Data Hub a pour objectif de favoriser l’utilisation et l'exploitation des données de santé, en particulier dans les domaines de la recherche, de l’appui au personnel de santé, du pilotage du système de santé, du suivi et de l’information des patients.
Cette future plateforme de données de santé doit permettre le développement de l’intelligence artificielle (IA) en santé et aura un rôle de promotion de l’innovation dans l’utilisation des données. Prévu dans l'article 11 du projet de loi de santé, le hub fonctionnera sous la forme d'un groupement d’intérêt public (GIP) et combinera des financements publics et privés.
Le patron de la Drees a indiqué que l'Etat participera à hauteur de "80 millions d'euros sur quatre ans".
La structure reprendra les missions actuelles de l'INDS, auquel il se substituera, tout en les élargissant. Le GIP INDS -qui a succédé en avril 2017 à l’Institut des données de santé (IDS), créé en 2007- a pour missions de veiller à la qualité des données de santé et en faciliter l’accès.
Pour mettre en place le Health Data Hub, plusieurs actions ont été définies: créer une plateforme technologique de mise à disposition des données de santé, organiser l’accompagnement technique des producteurs pour la collecte et l’amélioration de la qualité des données, et renforcer l’accompagnement des utilisateurs et promouvoir des événements fédérateurs au sein de la communauté tels que des challenges visant à mettre en valeur les compétences expertes des acteurs de l’écosystème sur des jeux de données ciblés.
La première version de la plateforme technologique et du dispositif d’accompagnement sera testée par les 10 "projets pilotes" retenus dans le cadre de l'appel à projets. Ils contribueront à la coconstruction du Health Data Hub par l’enrichissement de son catalogue de données et l’expérimentation de son offre de services.
"Je souhaite que ce hub soit créé, définitivement, d'ici au 31 octobre 2019", a souligné Agnès Buzyn le 16 avril, se félicitant de "l'enthousiasme suscité par le projet".
"Les attentes sont très nombreuses aujourd’hui et l'intérêt que suscite le projet est immense. Le défi est désormais de gagner la confiance des Français et elle se gagnera si une exigence est respectée : maintenir une approche humaine des patients et de la médecine", a prévenu la ministre.
Un site dédié au projet est déjà en ligne à l'adresse www.health-data-hub.fr.
Dix projets "matures"
"Nous attendions une cinquantaine de candidatures, nous avons reçu 189 projets. Nous allons essayer d'aider les 179 autres projets dans les prochains mois même s'ils n'ont pas été choisis ce soir. Ce n'est qu'un début", a déclaré Jean-Marc Aubert, le 16 avril.
"L'objet du hub est de mettre en avant des preuves de concept assez rapidement et pour ce premier appel à projets, les pouvoirs publics ont sélectionné des projets lisibles par le grand public", a expliqué à TICsanté un acteur de l'e-santé, candidat malheureux à l'appel à projets.
Portés par des organismes de recherche, des établissements de santé, des professionnels de santé, des associations de patients, des industriels et des start-up, les 10 lauréats ont satisfait plusieurs critères : la maturité de leur projet, leur caractère innovant en matière d’exploitation des données, leur intérêt public, les bénéfices potentiels attendus, leur contribution à la constitution du catalogue des données du hub et au partage des données, des outils et des connaissances.
Les 10 projets retenus sont :
• Deepsarc. Porté par le professeur Jean-Yves Blay, directeur général du centre Léon-Bérard (centre de lutte contre le cancer de Lyon) et directeur du réseau NetSarc, le projet doit permettre d'identifier les meilleurs schémas thérapeutiques pour le traitement du sarcome.
• Parcours IDM en Ile-de-France. Porté par le Dr Axelle Menu-Branthomme, responsable de département à l’agence régionale de santé (ARS) Ile-deFrance, avec le soutien du Samu 78 et du groupement de coopération sanitaire (GCS) Sesan, ce projet doit évaluer et améliorer les parcours de soins après un infarctus du myocarde (IDM).
• Pimpon. Porté par Jean-François Forget, directeur médical dans la société Vidal, Pimpon a pour ambition d'aider les prescripteurs en leur faisant remonter les alertes pour les interactions médicamenteuses et réduire ainsi les complications.
• Hydro. Porté par le Dr Arnaud Rosier, président de la start-up Implicity, le projet doit permettre de prédire les crises d'insuffisance cardiaque pour les patients porteurs de pacemaker.
• NS Park. Porté par le Pr Jean-Christophe Corvol, neurologue à la PitiéSalpêtrière (AP-HP, Paris), et soutenu par l’Institut du cerveau et de la moelle épinière (ICM), l’Inserm et le F-CRIN (French Clinical Research Infrastructure Network), le projet doit prédire les trajectoires individuelles des patients parkinsoniens et modéliser la progression de la pathologie.
• Arac. Le projet de Laurent Borella, directeur santé à Malakoff Médéric Humanis, porte sur la mesure et la "compréhension" des restes à charge réels des patients et doit permettre "d'interroger les modes de financement des dépenses de santé".
• Ordei. Porté par Patrick Maison, conseiller scientifique à l’Agence nationale de sécurité du médicament et des produits de santé (ANSM), le projet prévoit de quantifier la proportion de patients touchés par un effet indésirable médicamenteux.
• Oscour. Le projet de Yann Le Strat, directeur de l'appui, des traitements et des analyses des données de l'Agence nationale de santé publique (ANSP - Santé publique France) propose de "mobiliser les données d’urgences" pour améliorer la surveillance sanitaire. La première expérimentation sera menée sur les accidents vasculaires cérébraux (AVC) avec le concours de la Fédération des observatoires régionaux des urgences (Fedoru), des équipes du registre AVC de Brest et de l'université de Rennes.
• Deep Piste. Porté par Francisco Orchard, responsable d'unité data science au sein de la société Epiconcept, appuyé par le Centre régional de coordination des dépistages des cancers en Occitanie et l’Institut Curie, ce projet vise à évaluer l’apport de l’intelligence artificielle (IA) dans le dépistage organisé du cancer du sein.
• Retrexis. Ce projet, porté par le Dr Pierre Marquet du CHU de Limoges, avec l’appui de l’Inserm et de la société Optim’Care, doit permettre de mesurer l’impact à long terme de l’exposition aux médicaments immunosuppresseurs des patients greffés rénaux pour, à terme, optimiser les stratégies thérapeutiques, les doses mais aussi les formules de ces médicaments.
Les lauréats ont été sélectionnés par un jury d'experts présidé par le Pr Bernard Nordlinger, membre de l'Académie nationale de médecine et chirurgien oncologue à l'hôpital Ambroise-Paré (AP-HP, Boulogne-Billancourt, Hauts-de-Seine).
Il était composé de :
• Emmanuel Bacry, directeur de recherche au CNRS et directeur scientifique du Health Data Hub
• Olivier Clatz, directeur du grand défi "IA et diagnostics" au secrétariat général pour l'investissement (SGI) à Matignon
• Stéphanie Combes, cheffe de projet du Health Data Hub à la Drees
• Isabelle Gentil, experte en IA et santé au ministère des solidarités et de la santé
• Didier Guillemot, professeur à l'université Versailles Saint-Quentin et chercheur à l'Inserm et à l'Institut Pasteur
• Yves Lévy, directeur exécutif du Vaccine Research Institute, ancien patron de l'Inserm, aujourd'hui conseiller d’Etat en service extraordinaire
• Rosalie Maurisse, responsable santé au sein de la direction innovation de la banque publique d'investissement Bpifrance
• Anne Paoletti, directrice scientifique dans le secteur biologie santé de la direction générale de la recherche et de l'innovation (DGRI)
• Marie Séval, conseillère information en santé au sein de la direction générale de la santé (DGS).
Les premiers résultats des projets retenus sont attendus "pour la fin de l'année", a rappelé le Pr Bernard Nordlinger.
Plusieurs recrutements dans les prochains mois
Annoncé comme le premier recrutement du futur GIP, Emmanuel Bacry, le nouveau directeur scientifique de l'INDS -qui se transformera en Health Data Hub dans le cadre de la future loi de santé, rappelle-t-on-, a expliqué à TICsanté que "ce qui a manqué à certains projets était le partage sans condition de leurs données pour alimenter et enrichir le hub".
En attendant, la mission du directeur scientifique est de "mobiliser le monde académique autour du hub et constituer un écosystème".
Dans un deuxième temps, Emmanuel Bacry procèdera "à plusieurs recrutements pour permettre de construire la structure de la plateforme. Parmi ceux-là : un chief technical officer (CTO ou directeur technique), des data scientists, des ingénieurs et des managers de projet.
Aucun calendrier de recrutement précis n'est pour l'heure fixé. "Nous devons d'abord évaluer les besoins en recrutement", a précisé le nouveau directeur scientifique de l'INDS/Health Data Hub.
Une fois la plateforme créée, le directeur scientifique sera également chargé d'organiser "des challenges, type hackathon ou datathon" et de "nouer des partenariats à l'échelle européenne", a-t-il indiqué.
Outre les équipes techniques du hub, "nous souhaitons recruter une vingtaine de personnes en 2019 pour nos quatre pôles : plateforme, data, accompagnement pilote et animation de l'écosystème", a observé auprès de TICsanté Stéphanie Combes, cheffe de la mission de préfiguration au sein de la Drees.
Cette mission planche sur le deuxième appel à projets, qui devrait être lancé dans les six mois. "Nous réfléchissons à la façon de procéder pour ce deuxième appel à projets : en thématisant ? Par technologies ? Par pathologies ?", s'est-elle interrogée.
0 notes
Text
NTT Communications va acquérir une participation dans Transatel, un fournisseur mondial de solutions de connectivité pour les marchés des MVNO et de l'IdO
Check out the latest post http://thenewsrabbit.com/ntt-communications-va-acqurir-une-participation-dans-transatel-un-fournisseur-mondial-de-solutions-de-connectivit-pour-les-marchs-des-mvno-et-de-lido/
TOKYO & PARIS–(BUSINESS WIRE)–NTT Communications Corporation (NTT Com), l’activité de solutions TIC et de communications internationales au sein du Groupe NTT (TOKYO : 9432) et Transatel (siège : Paris, France, PDG : Jacques Bonifay), un fournisseur mondial de gestion de la connectivité cellulaire pour l’Internet des objets (IdO) et un facilitateur d’opérateurs mobiles virtuels (Mobile Virtual Network Enabler, MVNE), ont conjointement annoncé qu’ils avaient entamé des négociations exclusives portant sur l’acquisition d’une participation majoritaire de NTT Com dans Transatel, et que la notification au conseil d’entreprise concerné et la consultation nécessaires avec ce dernier avaient été complétées le 20 décembre 2018. Une fois conclue l’entente définitive, NTT Com et Transatel procéderont à l’achèvement de la transaction.
Le développement de la voiture connectée, de l’IdO industriel et grand public et des villes intelligentes va être source de changements majeurs pour nos sociétés. Cette révolution devrait permettre de créer de nouvelles opportunités commerciales considérables, afin de permettre aux entreprises de se connecter, de gérer et de monétiser leurs services IdO. Ce marché devrait atteindre 1,1 billion USD d’ici 2021.*1
Créée en 2000, Transatel est depuis 2012 pionnière dans le déploiement de son propre réseau mondial de MVNO de données compatible avec la technologie de la SIM embarquée (Embedded SIM, eSIM*2) pour répondre aux besoins de trois segments de marché clés : électronique grand public, automobile et Internet industriel des objets (IIdO). Sa plateforme primée SIM 901 a été sélectionnée par de prestigieuses entreprises pour fournir des services de connectivité cellulaire mondiaux sécurisés, ainsi que l’authentification et la gestion de réseau. En outre, Transatel qui a lancé avec succès plus de 170 clients MVNO est le principal MVNE européen.
Cette transaction permettra à NTT Com d’étendre considérablement sa solution IdO mondiale. Les synergies combinées entre les solutions mondiales de données destinées aux MVNO de Transatel et la plateforme Global Network de NTT Com qui intègre l’infrastructure, les centres de données, le cloud et l’IdO permettront à cette alliance de fournir au marché une proposition de valeur unique.
Shuichi Sasakura, vice-président principal et responsable des services réseau de NTT Com, a déclaré : « En tirant aparti de l’expertise en ingénierie de Transatel dans le domaine de la connectivité IdO, NTT Com va pouvoir améliorer et contribuer à la transformation numérique de ses clients et partenaires à l’ère de l’IdO. »
Jacques Bonifay, PDG et fondateur de Transatel , a confié pour sa part : « Grâce à NTT Com, Transatel est désormais en mesure d’accroître considérablement sa présence opérationnelle en Asie au profit de ses clients européens, tout en offrant la solution idéale aux entreprises asiatiques et aux autres entreprises multinationales mondiales souhaitant élargir leurs offres IdO.
À propos de NTT Communications
NTT Communications résout les défis technologiques mondiaux en aidant les entreprises à surmonter la complexité et le risque dans leurs environnements TIC grâce à des solutions d’infrastructures informatiques gérées. Ces solutions sont appuyées par notre infrastructure mondiale, notamment des réseaux publics et privés mondiaux de niveau 1 à la pointe du secteur regroupant plus de 190 pays ou régions, et plus de 400 000 m2 d’installations de centres de données, les plus avancées au monde. Nos équipes de services professionnels fournissent une assistance et une architecture offrant la résilience et la sécurité requises pour le succès de votre entreprise ; notre échelle et nos capacités mondiales sont inégalées. Combinés à NTT Data, NTT Security, NTT DOCOMO et Dimension Data, nous sommes le NTT Group.
À propos de Transatel
En tant que principal MVNE/A (Mobile Virtual Network Enabler/Aggregator, en français : facilitateur/agrégateur d’opérateurs mobiles virtuels) européen, Transatel a, depuis sa création en 2000, lancé plus de 170 MVNO (Mobile Virtual Network Operators, en français : opérateurs mobiles virtuels) et développé une solide expertise en connectivité Machine-to-Machine. Depuis 2014, la société propose une solution cellulaire inégalée pour la connectivité globale et multi-locale des données avec les capacités eSIM pour le marché de l’IdO, destinée aux marchés de la voiture connectée, des objets connectés et de la connectivité embarquée.
*1 : Rapport de l’IDC *2 : SIM embarquée. SIM pouvant réécrire le profil de communication à distance
Le texte du communiqué issu d’une traduction ne doit d’aucune manière être considéré comme officiel. La seule version du communiqué qui fasse foi est celle du communiqué dans sa langue d’origine. La traduction devra toujours être confrontée au texte source, qui fera jurisprudence.
0 notes
Text
Pas de communs sans gouvernance démocratique
TRIBUNE. Par Myriam Bouré, cofondatrice d'Open Food France.

Je m’appelle Myriam, j’ai cofondé Open Food France, une plateforme basée sur un logiciel libre où paysans, mangeurs, restaurateurs, peuvent organiser et opérer des circuits de distribution courts et indépendants. Cette plateforme est aussi ce que nous appelons une plateforme coopérative, car ce sont les utilisateurs qui sont en gouvernance de la plateforme. Nous discutons par exemple en ce moment du modèle de prix qui va s’appliquer aux utilisateurs, ce modèle de prix sera adopté par consentement des utilisateurs.
Quel est le problème? Pourquoi reconstruire des communs est si important?
Ces dernières décennies, nous nous sommes / avons été infantilisés, privés de notre pouvoir de décider de l’organisation de notre société: - Travail: on va confier ça à de grandes entreprises ou des startups qui vont vous employer et vous dire quoi faire de vos journées. - Santé: laissons cela à l’industrie pharmaceutique et aux médecins experts, pas la peine d’être à l’écoute de votre corps, d’apprendre les plantes médicinales, on s’en occupe pour vous. - Alimentation: l’industrie agro-alimentaire s’occupe de tout, main dans la main avec la grande distribution. Plus besoin de savoir cultiver, ni même de cuisiner, on va vous livrer des plats tout préparés que vous aurez juste à mettre dans le micro-ondes. - Objets: plus besoin de bricoler, il y a Ikea. Etc.
Nous avons perdu la souveraineté sur nos propres vies, notre alimentation, notre santé, on n’est plus capables de satisfaire nos besoins de base.
Alors on doit revenir à l’autarcie et réapprendre à tout faire tout seul?
Pas l’autarcie, mais l’autonomie. Ça ne veut pas dire qu’on doit tous se remettre à cultiver, bricoler, apprendre les plante médicinales, construire sa maison. L’autonomie peut passer par réapprendre à faire en partie les choses soi-même. Mais surtout, l’autonomie pour moi c’est de retrouver la gouvernance des systèmes que nous utilisons au quotidien, et partageons en commun. Par exemple: quel mot avons-nous à dire quand on va faire nos courses chez Carrefour? On ne décide pas des produits dans les rayons! Oui on peut acheter des produits bio, qui vont dans le sens de notre vision, mais on reste consommateur, c’est toujours Carrefour qui décide de ce qui est sur les étagères et pouvons acheter. Prenons le cas du supermarché coopératif La Louve où seuls les membres peuvent faire leurs courses. Ils décident des produits sur les étals et travaillent chacun 3h/mois. c’est LEUR supermarché. Au contraire, les Nouveaux Robinsons est aussi coopérative, mais les membres se contentent d’acheter une part. On peut essayer de se faire élire pour représenter les consommateurs dans la gouvernance. Mais on reste client. La démocratie représentative ne suffit plus.
Les enjeux des communs dans l’alimentaire sont cruciaux, il est urgent d’agir!
1/3 de la nourriture produite est jetée alors que 870 millions de personnes ne mangent pas à leur faim (source: ONG Phenix);
75% des espèces cultivées ont disparues (source: FAO);
90% des rivières européennes sont polluées, notamment aux pesticides;
La disparition de l’humus avec l’artificialisation des sols (bétonnage) et l’usage de phytosanitaires entraîne sécheresses ET innondations (voir article Reporterre);
1 pommes d’il y a 100 ans vaut 100 pommes aujourd’hui pour leur teneur e vitamine C (voir article Nouvel Obs/Rue 89 pas mal décrié);
l’ensemble du système alimentaire représenterait 50% des émissions de gaz à effet de serre (source: Via Campesina);
1 agriculteur se suicide tous les 2 jours en France (voir article France Bleu);
Le nombre de fermes en France a été divisé par 4 en 50 ans (voir article Safer);
Face à la disparition des abeilles qui s’empoisonnent aux pesticides, Wallmart construit des abeilles robotisées (cherchez le problème);
En France 92% de notre alimentation passe par 4 centrales d’achat (qui contrôle ce que nous mangeons?);
Monsanto (ex Monsanto devrais-je dire!)/Bayer/Dupont/Google et compagnie investissent massivement dans le big data agricole, car demain le contrôle du système alimentaire ce sera les données agricoles (un article sur le sujet de terre-net pour voir de quoi on parle).
Ce sont des AMAP, groupements d’achats, coopératives qui rassemblent producteurs et mangeurs sur un territoire. Ce sont des supermarchés coopératifs. Ce sont des systèmes de garanties participatifs comme le label Nature & Progrès. Ce sont des connaissances ouvertes et partagées sur les méthodes culturales, la fabrication d’outils. Ce sont des jardins communautaires.
En fait, les communs, c’est la démocratie.
“Il n’y a pas de passager dans le vaisseau-terre, nous faisons tous partie de l’équipage”, alors c’est à chacun de nous de se retrousser les manches de choisir le ou les communs qui font le plus sens pour nous, et d’avancer !

À propos de l'auteur: OuiShare Connector, co-fondatrice des chapitres Open Food Network en Norvège et France, je m'intéresse particulièrement à la transformation et à la décentralisation du système alimentaire, ainsi qu'aux processus de design des organisations et des modèles de gouvernance dans les organisations distribuées collaboratives (DCO).
À lire aussi :
Créer votre propre réseau d'alimentation locale ? C'est facile, grâce à cette plateforme
Circuits courts : une diversité de modèles au service de la résilience alimentaire
from We Demain, une revue pour changer d'époque https://ift.tt/2KqmeHi via IFTTT
0 notes
Text
Lancement de DataSud, la nouvelle infrastructure régionale de données
La Région Sud et le CRIGE lancent DataSud, un guichet unique de la donnée en Provence-Alpes-Côte d’Azur. Les données publiques comme privées permettront de déployer des services numériques opérationnels à la population. Santé, transports, tourisme, formation, énergies, l’innovation par les données a pour objectif d’accélérer la transformation numérique dans tous les secteurs. Une trentaine de collectivités et partenaires privés ont décidé de participer à une première phase de tests et de publications sur la plateforme, une centaine sont attendus pour fin 2018. « Nous sommes la 1ère Région à marier données géographiques, ouvertes et intelligentes et proposer une telle plateforme avec d’aussi nombreux partenaires publics et privés. Par le lancement de DataSud, je souhaite engager Provence-Alpes-Côte d’Azur dans l’ACTE II de l’Open data en passant de la « donnée ouverte » à la « donnée intelligente ». Ce qui permettra à nos entreprises de déployer des applications et services toujours plus innovants, en réponse aux enjeux de notre territoire, mais également de moderniser nos administrations. Je souhaite que Provence-Alpes-Côte d’Azur devienne la région leader dans l’ouverture des données numériques, au service des territoires et de l’innovation. Les données sont « le carburant » indispensable pour le développement de nouveaux services à l’attention de l’ensemble des usagers. DataSud s’inscrit dans notre politique d’innovation et notre stratégie numérique pour positionner Provence-Alpes-Côte d’Azur comme la 1ère Smart Région d’Europe. Notre Région doit être exemplaire dans sa démarche d’innovation. » a déclaré Renaud MUSELIER, Président de la Région Provence-AlpesCôte d’Azur, Député européen http://www.datasud.fr Les données constituent un pilier fondamental des stratégies de territoires intelligents et un enjeu incontournable en matière de transformation numérique des collectivités et du secteur privé. Dans un contexte technologique et législatif en forte évolution, la Région et le CRIGE Paca poursuivent l’objectif partagé de permettre aux producteurs, diffuseurs et réutilisateurs de données de publier, diffuser et réutiliser des données sur une plateforme multi-thématique fédératrice. Ce projet s’inscrit dans la continuité des programmes d’accompagnement à la production et la réutilisation de données portés par le Conseil régional Provence-Alpes-Côte d’Azur et le CRIGE Paca depuis plusieurs années.
La loi république numérique
En premier lieu, DataSud doit permettre aux acteurs publics et leurs délégataires de se mettre en conformité avec les obligations réglementaires en matière de publication de données, notamment vis-à-vis des obligations récemment renforcées par plusieurs textes de Loi dont la Loi NOTRe, la Loi République Numérique, la Loi pour la croissance, l’activité et l’égalité des chances économiques ou encore la Loi Transition énergétique pour la croissance verte…DataSud permet à tout acteur public ou privé, partenaire de la Région ou du CRIGE Paca de diffuser gratuitement ses données sur la plateforme.
Une démarche partenariale ambitieuse
Au-delà des enjeux technologiques, DataSud est avant tout une démarche partenariale qui repose sur l'engagement de ses partenaires.
Une trentaine de collectivités et d'acteurs privés du territoire diffusent déjà des données sur DataSud, on citera notamment : le Conseil départemental des Hautes-Alpes, le Conseil départemental des Alpes de Haute-Provence, le Conseil départemental du Var, le Conseil départemental du Vaucluse, la Métropole Aix-Marseille Provence, l'ARCADE, AirPACA, APIDAE Tourisme, l'AGCCPF Paca, l'ORM, l'ORECA, l'ORS, le SMO Paca THD, l'ADRETS, les villes de Marseille, Digne-les-bains, Avignon, Martigues, Antibes ou Aubagne ainsi que nos partenaires industriels ENEDIS, RTE et GRDF. La Région Provence-Alpes-Côte d'Azur remercie ses partenaires ainsi que les prestataires en charge du développement et de l'hébergement de la plateforme : NeoGeo, Jaguar Network et Quai13. http://www.datasud.fr par Toutes les actualités http://www.regionpaca.fr//actualites/detail-actualite/article/lancement-de-datasud-la-nouvelle-infrastructure-regionale-de-donnees.html
0 notes
Text
A Party From Development.
Discover just what that feels like to examine an undergraduate training course below. OPD teams up with the Composing Center, Libraries, DoIT Software application Qualifying for Students, Delta, career centers, and also others to offer a wealth of events as well as information customized to the requirements of UW-Madison graduate students. 4 Greater Level targets at Grade H3 or even far better at the 1st resting, consisting of Biology. These, together with the Conditions of Admittances, create the contract between you and the Educational institution in relation to your studies at the University. Chemistry: Analysis on the structure of ribonuclease, a sophisticated protein. There is actually no instant, material change for our staff, pupils as well as EU-funded programs. The six-university crew is going to be actually led by Santosh Kumar, Teacher at the Educational institution of Memphis and supervisor of the NIH-funded Center of Distinction for Mobile Sensing unit Data-to-Knowledge. Trainees on this module have to enter from the Kent Law Facility, as well as work under on 'reside ' cases for customers from the Clinic under the oversight from solicitors, or even various other knowledgeable lawful practitioners operating together with them. She worked as a judge on the USA Court of Appeals for the Second Circuit from 1998-2009. Simply talk to a campus rep for a listing of plans on call at each university place. Grad Certificate in Investigation Methods in Education and learning. Certifications must be actually gained in one sitting and at the initial attempt. In the useful element our team will use case history (featuring that from the US government lawyers who supplied legal reasons for making use of torture on 'Battle on Fear ' captives). As such, that offers the foundations for comprehending all sorts of economics, including macroeconomics. Furnished with skills, understanding, knowledge as well as the entrepreneurial spirit they get at the UA, our trainees become strongly trained members of culture who lead along with determination, innovate without restrictions, and also produce business that produce more jobs, tremendously helping our state, our nation, as well as the globe. Our company at that point analyze microeconomic fundamentals of macroeconomics to comprehend thorough the determinants from investment, labour, as well as usage source decisions. Students along with an average 4.3 G.P.A. and also an average S.A.T. rating from 1918 that are anything yet average. This is actually the home of the University from Minnesota Walking Band, and hosts big-name shows and also freshman assemblage. Students will definitely experience a combination of self-study and also student-faculty communication over an on the web discovering network. These domain pros are generally specialists in service growth, technology strategy, trademark administration and licensing, item advancement, innovation advertising and marketing, financial backing, administration consulting and also prototyping.
Why Is actually gel So Famous?
Regardless of the unpredictability at this stage, this web site will certainly take care of much of the urgent problems for staff as well as trainees, each prospective and also current. Teacher planning plans are actually used in Fla accordinged to home-state commendation (Arizona). And contributed 4 million dollars towards the construction from a company library. Currently in its ninth year, Invite Week boosts students' feeling from belonging as well as contributes to first-year recognition fees through equipping students along with the understanding and also sources making an effective transition off high school to collegiate life. The function of the Women from Shade Caucus Pupil Exposition Awards is to find out, motivate, and also promote the mental growth from surfacing intellectuals that participate in crucial academic conversations and/or analyses concerning feminist/womanist problems worrying ladies and also women of color in the USA as well as the diaspora.
Reasons that gel Is actually Obtaining More Popular Before Decade.
Jason Tan has actually been involved in numerous startups-- BuzzLabs, Optify, Zillow-- given that getting a degree from the UW in 2006. The scholastic dean is accountable for issues associated with trainee registration and the trainee's authorities file, including credit limits, qualification to carry on, disciplinal holds, and also withdrawal permission.
15 Ugly Fact Regarding gel. When you loved this article and you would want to receive much more information with regards to just click the next post kindly visit our site.
The Michael G. Foster School from Business is actually a joint discovering community of advisers, workers, students, alumni as well as magnate devoted to the development, app as well as sharing of monitoring knowledge. For example in some full weeks a percentage of the treatment will definitely be actually utilized as a lecture on the area substantive regulation and the remainder for a discussion including the needed analysis and educated by private research embarked on.
0 notes
Text
Misplaced Or Corrupted SIM Data-recovery
Inside this specific article delivered to you personally by http://www.ishine-trade.com we notify you only a bit about regaining corrupted or lost data in the simcard.
Have you ever accidentally typed you, or even longer, text-message - delivered, draft, or even received? Have deleted a stored entry on your contacts list? Have deleted an entrance on your Phone sign up?
Or simply obtained a virus that includes corrupt data saved in your own simcard.
There's scarcely a "very good" period for one of those occasions to take place.
There Are a Lot of reasons why information over a Sim-card Gets inaccessible?
The fantastic thing is: it can regain (re-establish) for example corrupted or lost information by using corrupted or lost data recovery computer software bundles.
Hint:
To really steer clear of shedding irretrievable info files or folders, burning all of the files into an own pc is a superior notion. Most back-up, or move, programs are all readily available to transport files and data in the mobile to a personal computer, also by the personal computer to your own mobile phone.
Data could be the expression used here in order to reference: texting, telephone amounts, along with other relevant details stored in your own simcard including as for instance IMSI variety, and also network supplier. In addition to the endings Register that lists phone calls manufactured, phone calls acquired - containing forecasts received and replied, and also calls acquired although not replied (missed phone calls), also some times known as the Phone Log.
While tech is currently dancing in a speedy tempo, shifting nearly on a month-to-month basis, there can be a few data which can't be recovered for assorted factors.
To Take One Example,, 1 rationale That the deleted Text-message Might Not Be retrievable Can Be like follows:
If a TextMessage will be stored in your own SIM card, then the written text message is going to be allotted into a simcard memory card.
Perhaps should we clarify the texting have been stored saved or stored for, your sim-card we may have the ability to spell out how deleted messages might be recovered.
Even though subsequent justification concentrates on texting - your own contacts checklist (cell phone listing) may employ a related theory.
Just how are texting stored onto a simcard? A simcard includes a local delegated into it, also named a document, such as that storage of texting.
This document has lots of regions inside of the document - most likely, such as simplicity so we will call those areas folders.
The variety of folders is more restricted - which is, there's a limitation on a number of folders that a sim-card contains - each and every folder may carry 1 text-message - hence the variety of texting that your simcard may record is restricted by a number of folders.
After all of the hyperlinks have been full - so as to be given a fresh TextMessage it is likely to soon be mandatory to manually delete an existent communication.
Each and every folder has been sub divided into other fields - again to get simplicity that we will reference those are as for example areas.
Thus, every single text-message is a folder, and just about every folder contains its own areas.
These areas can be Utilized to Put Away information Related to the Writing material That's saved at the various folder - this sort of areas have been utilized to save:
Sender's phone number; day material acquired; Time concept acquired; text-message itself; The condition of the folder. Step one of those aforementioned five areas are still perhaps pretty an easy task to know to people won't enlarge them on at the time.
The fifth step previously: Condition of the folder - perhaps involves further excuse.
Usually, there are just two countries - every Particular folder may simply be at 1 of Both countries at any stage in the period:
In Utilization; Totally Free. In usage - that only usually means that the folder includes a TextMessage.
Free of charge - ensures that the folder is currently offered to own a whole text-message stored in it.
Free of charge - will not absolutely indicate that the folder doesn't comprise a note.
Confused yet?
Please let's clarify.
After you delete a note - possibly intentionally, or accidentally, you of 2 things could transpire - in line with the make and version of the hand set.
The practice of deleting the written text message will probably demand just minding the "Condition" advice from "in use" into "totally free" - leaving every one of the additional areas since these were earlier the communication has been "deleted" - the sender's contact number, day obtained, period received, and text-message itself, could still actually be there everywhere - you'll only not have the capability to obtain such advice as you've got "deleted" the information by simply minding the Condition discipline to free of charge.
Or, if you intentionally, or accidentally, then delete a text message, but maybe not merely would the "Condition" area be put to "Free of Charge", but also another area: Sender's telephone number, Obtained Day, Part-time period text also text message itself - will probably be flashed to some default Price - hence the text message along with its own affiliated Info is actually deleted
There'll soon be additional bits of info assigned to every text message, so telling your sim-card program at which In-Memory each communication will be stored to ensure the sim-card knows the place where to enter its memory card to automatically get the information whenever you move to learn the information. Additionally, saved together side the TextMessage, is advice such as for example the time and date that the written text message has been delivered, and also the telephone number which the written text message has been delivered out from.
After you delete a note and also their state discipline becomes cost-free, this informs your sim-card that this particular folder is utilized to save a brand new incoming email message.
Thus, to see, Based on Your Cell phone handset - once people delete a Text-message one of 2 things occurs - either:
The communication is currently marked as deleted, by minding the condition discipline just, or The communication will be in fact deleted, by minding all areas into their own default "no communication" significance. When procedure inch above can be employed, as soon as a fresh communication comes and can be kept in a folder that's had only the Condition field reset to cost-free - the original message along with its own related disciplines will subsequently invisibly with all the new message and also the newest message disciplines will probably comprise the exact data to your message that is new.
Inside this instance, the original message will probably now almost certainly isn't retrievable.
Nonetheless, if procedure 2 over can be utilized to delete a note - fortuitously that the message that is deleted will probably be irretrievable - no matter of if a brand new communication had chosen the deleted material folder.
Advancements in information retrieval tech nevertheless may well indicate that, even in such conditions, possibly formerly irretrievable info might get a higher prospect of today being retrieved.
Just how are Contacts saved in a simcard? Comparable to own text messages, then there's a place of your own simcard that's allotted to keeping contacts - Title and contact range.
This spot is going to be split into a limited range of segments - an element each touch - the moment all segments have been full you aren't going to have the capacity to save a brand new contact till you delete an existent contact.
The writer proposes that every section contains data connected to the particular portion - including as for example totally free, or In Use.
An "inuse" part comprises a contact name and contact range.
A "Totally Free" Segment comprises either:
No-contact name / telephone, or A title and phone number that's been marked as deleted. A brand new Con-Tact Title and telephone number may subsequently be kept at a "totally free" portion.
Like the written text message excuse previously, a Contact Name and contact number that's been uninstalled can most probably be recovered, where as a e-mailed Con-Tact identity and phone number which was over written could well be irretrievable.
How could information be recovered? Additionally, there really are a lot of info Retrieval pc software bundles, and also service suppliers, staying promoted online.
Perhaps an internet search engine hunt for "sim-card data recovery" might yield high numbers of final results.
If you're a "take a spin yourself" man, then there really are a lot of applications programs available that might be downloaded into a private computer, or even notebook, that enables one to aim recovery yourself.
All these down loadable applications bundles are from time to time called "doit-yourself" bundles.
Ordinarily, these applications programs have to get set up on your own personal computer, or notebook, accompanied closely by linking your simcard into your private computer, or notebook, accompanied closely by obtaining the applications program.
Much like most, in the end, applications suite systems that there are various quantities of a package deal.
Degrees will be different with regard to simplicity of functionality and use in an easy task to limited or use performance to tougher to use or increased features.
Data recovery computer software choices can vary from performance in limited by intricate - as an instance, applications programs that are generally employed by the overall public may maybe not, possibly, be as intricate and operational since bundles employed by forensic researchers that may be searching for valid signs.
Many applications programs are made for the overall people usage, tend not to demand any specialized abilities or understanding to successfully function as a data recovery computer software package(s). Essentially, in the event that you find it possible to work a cell telephone, the applications program needs to really pose not an issue.
The particular sequence of activities will probably be clarified from the application's directions related to this particular applications program that you simply purchase.
Just about every data recovery program package will probably have distinct method requirements like computer system or notebook Running Method, minimal memory amount (RAM - Random Access Memory), minimal free hard disk drive space, and also minimum chip category.
For several applications producers, there might differ heights of information recovery applications designed for assorted expenses, such as Fundamental, and top quality. Inside this instance, the superior package could function as greater cost and functionality compared to a simple package deal.
Prior to buying any sim-card data recovery computer software package it'd be wise to see the aforementioned criteria of one's own personal computer, or even notebook, differently setup of this applications program could neglect, or in the event, the computer software installs there could be applications functionality problems.
Still another thing to keep in mind is that you'll require also a simcard reader that can necessitate your own simcard to be added, and also a linking cable (USB) to automatically join your simcard reader into your private computer system, or even notebook.
Perchance a fantastic pc software program bought out of the "brick-and-mortar" shop could incorporate a simcard reader and also guide included in the applications program box.
An application program purchased and downloaded from, the Web wouldn't be likely to incorporate the simcard reader and also contribute since these are physiological goods rather than applications.
Instead, an internet supplier may possibly provide the choice (at added charge) to your own applications program to be submitted via the email to some streamlined disk as it may be potential, all over again at a further price, also to buy a card reader along with linking direct.
When purchasing the compact disc choice, if via or online a "Bricks and Mortar" retailer, keep in your mind that your own personal laptop or computer, or notebook, will call for a concise disc drive.
Instead of opposed to down loadable (Can It Yourself") bundles, there are, in addition, a lot of all Professional data recovery providers advertised giving an agency at which you have to set up for the simcard, or even cell phone handset, even to be obtained in into the supplier's assumptions to get data recovery needs to be carried out.
Additionally accessible are applications that may recover dropped data that's been saved within your cell phone hand set memory.
But, keep in your mind that in the event a cellular phone hand set is secured thanks to inputting an erroneous PIN code. (Watch our post: PIN Pa-c PUK Described)
Some info recovery computer software is left inefficient in case your cell phone hand set is still locked.
The plus side with your mobile phone must be manually unlocked manually until data recovery can happen, is when a cellular phone hand set is either stolen or lost whether your telephone is still PIN shielded anybody who tries to obtain data might be ineffective.
A drawback of one's own handset currently being unlockable is the fact that info may possibly perhaps not be retrievable even towards the valid handset proprietor.
What're optimal - down loadable (do it yourself) applications or skilled data recovery companies? This definitely is dependent upon many of facets.
Just how essential is your data that you're looking for regaining?
In the event, the info is especially significant, possibly fiscally, or sentimentally, prosperous recovery is going to soon be especially essential.
Additionally, in the event the misplaced info is in the mobile publication - other re entry systems could possibly be fairly straightforward and cost-effective, for example as for instance manual re entry - specially in the event that you've got your own contact checklist details listed else where such as for instance an actual phone publication, or even journal.
While down loadable applications (do it yourself) can be ordinarily reputable the features may possibly perhaps not function as on the very same degree while the applications utilized through, and also capacities of, the pro info Retrieval service-provider who may potentially raise your odds of effective information retrieval.
Be Aware
Prior to purchasing a SIM card reader downloading or downloading info recovery applications - figure out if the info you prefer to recover would be, or was, then stored in your own SIM card along with your own cell phone hand set - as different retrieval procedures will probably employ.
Scope and intention of the informative article To spell out the way info recovery computer software packs operate is outside of the reach of the report.
SIMsurprise.co.uk expects This informative article:
H-AS gave a few peace that information loss might be reversed; Described the fundamentals of everything exactly is demanded and also open to recover misplaced, or corrupt, info.
0 notes
Text
Pas d'Internet des objets sans écosystème
Cette semaine, c'était l'effervescence à Paris pour les acteurs de l'Internet des Objets (IoT) avec à la fois l'IoTWorld et la conférence LPWAN. L'Internet des objets, cette infrastructure qui se développe sur l'internet mondial, se déploie dans l'entreprise et les collectivités locales pour des applications plus industrielles au coeur de la tranformation numérique.
Dans ce contexte, GreenSI s'est penché sur les prévisions du cabinet IDC en matière d'IoT. Des prévisions très pertinentes sur plusieurs points, en tout cas plus originales que celles qui se contentent de projeter de façon linéaire l'internet actuel à l'échelle de 50 milliards d'objets. Mais connaissez-vous le LP Wan, le Low-Power Wide Area Network ? Dans un contexte d'entreprise numérique étendue, le WAN dépasse les murs de l'entreprise et parfois a besoin de se déployer là où il n'y a pas d'énergie pour alimenter les objets qui émettent des mesures permettant de numériser les processus. La disponibilité d'une place de parking dans la ville est facilement mesurable par un capteur dans la chaussée, mais celui-ci doit avoir de l'énergie pour émettre régulièrement son état et signaler que la place est disponible. C'est là que ces liaisons sans fil à faible consommation énergétique sont de plus en plus utilisées. Elles permettent de maîtriser la durée de vie des batteries dans les capteurs (durée de vie de 20 ans nécessaire dans certains cas!) Cela concerne bien sûr les villes et les collectivités locales qui gèrent leur aménagement, mais aussi les entreprises pour tracker les processus de bout à bout, notamment dans la logistique ou le suivi de chantiers. Pour l'OVUM dans une récente étude, le LPWAN, longtemps réservé aux distributeurs d'eau ou de gaz (l'electricité utilise son propre réseau électrique) devient une tendance forte dès 2017. Ses usages vont se multiplier, mais aussi ses technologies avec l'arrivée du NB-IoT (à bande étroite IoT) et du LTE-M (Long Term Evolution pour machines). C'est donc cette semaine que GRDF, SUEZ, Sagemcom et une trentaine d'autres acteurs, historiques ou startups, ont choisi pour annoncer leur alliance: l'Alliance WIZE. Ils ont rappelé au marché que leur technologie éprouvée depuis plus de 10 ans fait l'objet de milliards d'investissements (à comparer aux 150 millions d'euros levés récemment par Sigfox), et se déploie massivement sur les territoires pour télérelever les compteurs d'eau et de gaz. Alors pourquoi ne pas réutiliser cette infrastructure, dont la fréquence est normalisée et la qualité de service est connue, pour d'autres usages ?
Libérée au niveau de l’Europe à l’aube des années 2000, la fréquence 169 MHz utilisée par ces opérateurs, largement intégrée par les fabricants de semi-conducteurs dans des composants radio de faibles coûts, offreune portée de plusieurs kilomètres en champ libre. Elle permet aussi des débits compris entre 2400 et 6400 bits/s, qui permettent d’échanger des télégrammes de plusieurs dizaines d’octets. Le réseau n'est bien sûr qu'une partie de la solution pour assurer les nouveaux usages, mais ses caractéristiques physiques, comme le besoin en énergie ou le fait que les communications soient bi-directionnelles, en font un élément de choix essentiel. Il est donc vraisemblable que l'avenir sera fait de plusieurs réseaux, dont la fidèle 3G/4G (et dans 3 ans 5G), mais aussi d'autres réseaux longue portée (WIZE, Sigfox, LoRa,...), qui seront choisis en fonction des usages. C'est finalement plutôt une bonne nouvelle pour les DSI soucieux de la pérennité de leurs investissements de pouvoir faire ce choix. Sigfox, très présent dans les médias, pouvait nous laisser croire qu'il n'y aurait qu'un seul réseau IoT qui traiterait tous les usages. Il n'en est rien. Sigfox est par exemple vu par l'analyste IDC principalement pour les applications non critiques, pour une partie relativement faible de l'ensemble des applications.
La ville et les infrastructures ne sont d'ailleurs pas le seul usage de l'IoT.
Pour IDC, en 2017, les véhicules connectés, les objets pour le bien-être personnel et les bâtiments intelligents seront à l'honneur dans l'ensemble des régions du monde, et représentent $96 milliards en dépenses. Reprenons maintenant les principales prévisions d'IDC sur l'IoT dans les 3 prochaines années :
Le smartphone reliant en bluetooth les objets personnels par millions sera dominant pour le B2C - ou directement en WiFi - et n'aura pas besoin d'autre réseau. En revanche, pour le B2B la collecte sera facilitée par les réseaux étendus de faible puissance LPWAN.
D'ici 2018, l'enjeu pour les entreprises se situe dans la remontée d'informations, via des capteurs ou des mesures bien situées le long des processus opérationnels pour en améliorer l'efficacité.
Un besoin au départ principalement interne à l'entreprise. Mais d'ici 2018, le besoin d'une plateforme "Open Data" se fera sentir et structurera les choix et les architectures. Les entreprises ayant déjà investi dans des solutions de plate-forme IoT pour ses besoins internes devront alors les ouvrir sur leur écosystème ou se synchroniser avec ces nouvelles plateformes "Open Data".
A mesure que l'adoption de l'IOT croîtra dans les principaux secteurs de l'industrie, du gouvernement et des consommateurs, le besoin de confiance dans ces donnés fera que 20% de tous les déploiements d'IOT auront des services Blockchain activés pour assurer la traçabilité au sein d'écosystèmes.
De plus, au moins 40% des données créées par IoT seront stockées, traitées, analysées et mises en œuvre à proximité ou en bordure du réseau, donc dans l'architecture de ce réseau et non dans des plateformes centralisées.
Les fabricants d'équipement IoT devront également améliorer leurs sécurité et leur traitement de la confidentialité, qui actuellement est la faille principale de ces systèmes.
D'ici 2019, 40% des collectivités locales et régionales utiliseront l'IOT pour transformer les infrastructures (routes, lampadaires, réseaux...) en actifs au service de l'évolution des villes à l'ère du numérique (Smart City). La quantité de données produites en constante augmentation permettra de poursuivre des stratégies d'analyse en continu et d'apprentissage par la machine au lieu de programmer les règles et seuils de pilotage de la performance.
Pour GreenSI, cette perspective est pertinente sur plusieurs points :
le fait que l'IoT est bien une infrastructure partagée par des écosystèmes, avec sa propre architecture, qui va se mettre en place progressivement avec ses standards, et non la vision d'un seul opérateur de bout en bout,
dans cette architecture la blockchain, autre technologie structurelle pleinement opérationnelle vers 2020, trouve bien sa place pour gérer des transactions au sein des écosystèmes qui vont se développer sur l'IoT. D'autres services se développeront au sein de cette architecture.
l'apprentissage se fera en interne dans chaque entreprise mais c'est bien la perspective externe et l'ouverture qu'il faut viser dès le départ pour éviter de remettre en cause ses investissements,
enfin, en B2Bn la sécurité est un élément essentiel à intégrer tout au long de la chaîne, ce qui est loin d'être le cas des déploiements B2C actuels (voir: les objets connectés sont des passoires).
Pour McKinsey, dans son étude sur l'impact de l'IoT sur les différentes industries, le potentiel de création de valeur de ces écosystèmes à l'horizon de 2025 sera principalement dans les usines et les villes (compteurs intelligents, éclairage urbain, parkings, environnement,...). C'est donc certainement ces deux cas d'usages qui vont structurer fortement l'architecture et les infrastructures de l'IoT à ce même horizon.
Pour les SmartCities, la présentation il y a 10 jours de la vision du Grand-Dijon qui mobilise plus de 100 millions d'euros pour mettre en place une gestion centralisée de l'espace urbain, intégrant la signalisation, l'éclairage... complété par une démarche unique d'open data s'inscrit totalement dans ces tendances IoT. Elle est le signe de ce changement de braquet des projets de villes intelligentes et montre, si on en doutait, le savoir-faire français après les premières vagues de technologies des géants américains il y a 5-7 ans. Dans ce contexte, l'écosystème de la nouvelle Alliance WIZE (169MHz), qui vise les collectivités et les industriels et qui utilisent des passerelles sécurisés installées sur des toits d’immeubles, est certainement une technologie qui assurera de façon perenne de multiples usages aux côtés des autres réseaux déjà existants. Sans aucun doute l'avenir sera celui des écosystèmes et de l'interopérabilité. from www.GreenSI.fr http://ift.tt/2ollxEF
0 notes
Text
Newsletter n° 131
Newsletter Hebdomadaire N° 131
Newsletter Hebdomadaire N° 131
20 Février 2017
Cette newsletter est au format HTML. Si elle ne s’affiche pas correctement, cliquez ici
A LA UNE CETTE SEMAINE
Etude Intel Security : Le maintien de la sécurité est un véritable challenge pour les RSSI Intel Security publie les résultats de son rapport mondial annuel sur la sécurité du Cloud. Intitulé « Building Trust in a Cloudy Sky », ce dernier porte sur l’état d’adoption du Cloud, les principales inquiétudes des RSSI quant aux services de Cloud public…
Cloud & UCaaS : les divergences d’adoption par les entreprises en Europe du sud
Mitel a mené une étude auprès de plus de 300 décideurs en Espagne, France, Italie et Portugal afin de faire la distinction entre l’intérêt grandissant que suscitent le cloud et les communications d’entreprise en mode « As-A-Service », et le niveau de…
Etude de la Cloud Security Alliance : augmentation des défis liés à la sécurité
Skyhigh Networks profite de la RSA Conference pour publier les résultats d’une nouvelle étude : « Custom Applications and IaaS Report ». Conduite en partenariat avec la Cloud Security Alliance (CSA), l’étude analyse la migration massive des applications d…
BlackBerry présente BBM Enterprise SDK
BlackBerry fait son entrée sur le marché des plateformes de communications instantanée (CPaaS) avec l’introduction de BBM Enterprise SDK qui va permettre aux développeurs d’intégrer des messages sécurisés et des communications audio et vidéo au sein d…
AWS lance Amazon Chime, un service de communication unifié
Amazon Web Services (AWS) annonce le lancement d’Amazon Chime, un nouveau service de communication unifié qui vise à faciliter les audio et vidéoconférences et à les rendre plus efficaces.Désormais, les utilisateurs d’Amazon Chime pourront démarrer des…
ANALYSES
Fog Computing : IoT, Cloud Computing et local
Le monde technologique aime les nouveaux concepts ou faire passer pour nouveau ce qui existait déjà mais pas avec le même mot. Le Fog Computing c…
Lire la suite des Analyses
AVIS D’EXPERTS
Infrastructures Cloud et Connectivité en France : 3 tendances pour 2017
Les annonces d’investissement des grands acteurs américains du cloud sur le territoire français se sont succédé en 2016. Quels vont être leurs…
Lire la suite des Avis d’experts
SUITE ACTUS
Ivanti étend sa gamme de solutions de sécurité pour les datacenters et le Cloud Hybride
AWS annonce son adhésion au CISPE et la conformité de ses produits à son code de conduite
Wipro lance sa plateforme sectorielle de Big Data Analytics « as a service » sur Bluemix d’IBM
Cisco présente Umbrella, sa dernière passerelle de sécurité Web (SIG) hébergée dans le Cloud
IBM et ServiceNow annoncent leur partenariat stratégique mondial
IBM s’associe à Qualys pour étendre son portefeuille de services d’infogérance en sécurité (MSS)
Lire le reste de l’Actualité sur cloudmagazine.fr
LIVRES BLANCS
La protection des données est un enjeu essentiel qui doit s’envisager au niveau global dans l’entreprise
Drooms tire les leçons du scandale PRISM sur la protection des données confidentielles. Les révélations d’Edward Snowden à partir de juin 2013…


Programmez n° 204
Open Source & Azure
Service Fabric : une plateforme PaaS sous stéroïdes
Consulter le sommaire complet
Nefer-IT © 2014. Tous droits réservés
SARL inscrite au RCS d’Evry, n°797 642 857 siège social : 7, Avenue Roger Chambonnet 91220 Brétigny sur Orge
Pour ne plus recevoir cette newsletter demandez votre désinscription ici.
Newsletter N°:
131
Avis d'experts Newsletter:
Détails:
Infrastructures Cloud et Connectivité en France : 3 tendances pour 2017
Livres blancs Newsletter:
Détails:
La protection des données est un enjeu essentiel qui doit s’envisager au niveau global dans l’entreprise
A la une Newsletter:
Details :
Etude Intel Security : Le maintien de la sécurité est un véritable challenge pour les RSSI
Cloud & UCaaS : les divergences d’adoption par les entreprises en Europe du sud
Etude de la Cloud Security Alliance : augmentation des défis liés à la sécurité
BlackBerry présente BBM Enterprise SDK
AWS lance Amazon Chime, un service de communication unifié
Suite actus Newsletter:
Détails:
Ivanti étend sa gamme de solutions de sécurité pour les datacenters et le Cloud Hybride
AWS annonce son adhésion au CISPE et la conformité de ses produits à son code de conduite
Wipro lance sa plateforme sectorielle de Big Data Analytics « as a service » sur Bluemix d'IBM
Cisco présente Umbrella, sa dernière passerelle de sécurité Web (SIG) hébergée dans le Cloud
IBM et ServiceNow annoncent leur partenariat stratégique mondial
IBM s'associe à Qualys pour étendre son portefeuille de services d'infogérance en sécurité (MSS)
Page d'attérrissage:
131.html
Date d'expédition:
Lundi, Février 20, 2017
Objet:
Infrastructures hyperconvergées en 2017, La sécurité est un challenge pour les RSSI
Analyses:
Détail:
Fog Computing : IoT, Cloud Computing et local
Programmez titre:
Programmez n° 204
Programmez couverture:
http://www.programmez.com/sites/default/files/styles/magazine_couver_home/pub…
Programmez article 0:
Open Source & Azure
Programmez article 1:
Service Fabric : une plateforme PaaS sous stéroïdes
Go to Source
Newsletter n° 131 was originally published on JDCHASTA SAS
0 notes
Photo
4G LTE Service Arrives on West Campus for Verizon Wireless Customers
1 note
·
View note
Text
Gustave-Roussy et la start-up Embleema s’associent pour collecter des données en vie réelle
La start-up franco-américaine Embleema et le centre de lutte contre le cancer (CLCC) francilien Gustave-Roussy ont annoncé lundi avoir noué un partenariat pour recueillir les données en vie réelle des patients du CLCC, qui pourront aussi les monétiser grâce à la blockchain.
Dans la galaxie numérique, la blockchain prend une place de plus en plus importante et grâce à la décentralisation et à l’inaltérabilité qu’elle offre, elle permet d’assurer l’intégrité des données cryptées et stockées sur divers serveurs.
Cette nouvelle technologie jusqu’alors prisée par le monde de la finance intéresse désormais la santé, qui y voit un bon moyen de sécuriser, tracer et stocker ses données sensibles.
Le 10 octobre 2018, Embleema a lancé Embleema Health Network, un consortium autour de la blockchain en santé qui doit permettre de récupérer les données en vie réelle issues des dossiers médicaux des patients mais aussi de leurs objets connectés, afin qu'ils les partagent "volontairement" avec la recherche clinique pour vérifier l’efficacité des nouveaux médicaments et dispositifs médicaux (cf dépêche TICpharma (site du groupe APM Internaitonal) du 12 octobre 2018).
Gustave-Roussy et Embleema s’associent donc dans le cadre de ce consortium pour que les données des patients collectées dans le cadre de parcours de soins dits de routine puissent être numérisées et consolidées en toute sécurité pour être utilisées de manière anonyme à des fins de recherche.
Il s’agit du premier établissement de santé à intégrer le consortium. Les laboratoires pharmaceutiques Pierre Fabre et Servier, en font déjà partie.
"Grâce à la technologie blockchain, les patients possèderont un contrôle accru sur leurs données stockées", ont rassuré les deux partenaires dans un communiqué. Concrètement, ils donneront leur consentement pour le recueil de leurs données, comme cela se pratique actuellement dans les protocoles de recherche, un consentement qui sera scellé dans un bloc de la chaîne.
C’est la technologie blockchain qui doit garantir au patient le respect de son consentement sur l’utilisation et les échanges de ses données anonymisées, il consent à partager ses données en activant un "smart contract" (protocoles informatiques qui s'auto-exécutent à certaines conditions), lequel informe les deux partenaires et scelle le bloc.
"Développer de nouveaux standards d’études en vie réelle en oncologie"
Ce partenariat stratégique avec Gustave-Roussy consiste à intégrer cette infrastructure de consolidation et d’échanges des données dans les systèmes du CLCC pour qu’elle puisse s’activer dans directement lors de ses opérations internes.
L’objectif est que leurs données de suivi de la pathologie, ou données en vie réelle, puissent servir la recherche clinique à tout moment de leur parcours "s’ils le souhaitent", est-il précisé. "À tout moment il peut annuler ou modifier l’accès à ses données. Il contrôle également la destination et l’usage de ses données."
Avec Gustave-Roussy, Embleema va travailler au déploiement de sa technologie pour développer de nouveaux standards d’études en vie réelle en oncologie.
"En fluidifiant la collecte et le partage d’informations cliniques, tout en garantissant un respect absolu du consentement du patient, nous visons à accélérer le développement et la mise à disposition de nouveaux traitements et améliorer le suivi en vie réelle des traitements existants", a déclaré Robert Chu, fondateur et directeur général d'Embleema.
En pratique, l’institut contribuera à la constitution du réseau en hébergeant des blocs de la blockchain et validera les catégories de données pertinentes pour le partage avec la recherche en participant au consortium d’Embleema.
"Le partenariat avec Embleema va permettre d’initier un modèle européen d’utilisation des données de soins au service de la recherche en toute transparence et en respectant pleinement les droits du patient", s'est félicité le Pr Alexander Eggermont, directeur général de Gustave-Roussy.
Des données monétisées
Embleema a choisi de soutenir ce consortium avec une levée de fonds en crypto-monnaie lancée le 10 octobre 2018 depuis Paris. Dans le cadre de cette ICO (Initial Coin Offering), la start-up va émettre des jetons numériques (tokens) appelés RWD (Real-World Data).
Les crypto-monnaies ou crypto-actifs sont des monnaies virtuelles, privées, qui permettent à leurs détenteurs d'effectuer des transactions sur des places de marché en ligne et d'échanger leurs jetons numériques contre de l'argent réel lorsqu'ils le souhaitent, rappelle-t-on.
Dans le cadre du consortium, les patients verront leur implication dans la recherche récompensée par des jetons RWD, également utilisés par les autres participants d’Embleema Health Network, et seront donc rétribués en échange de leurs données.
Le prix de vente public initial hors taxes des jetons était fixé à 17,34 centimes d’euros par token.
"La valeur du jeton évolue au fur et à mesure que les échanges de données patient augmentent. Plus le patient injecte de données dans la blockchain, plus c'est intéressant", avait alors expliqué Robert Chu lors du lancement de son consortium.
0 notes
Text
Newsletter n° 130
Newsletter Hebdomadaire N° 130
Newsletter Hebdomadaire N° 130
13 Février 2017
Cette newsletter est au format HTML. Si elle ne s’affiche pas correctement, cliquez ici
A LA UNE CETTE SEMAINE
Google doit remettre les mails stockés à l’étranger à la justice américaine Microsoft avait tenu bon face à la tempête et a réussi à empêcher que les mails de sa messagerie, mais stockés à l’étranger, soient remis à la justice américaine. Mais pour Google, il en va différemment.Le juge de la cour de Philadelphie Thomas Rueter a…
Windows 10 Cloud en vidéo
Windows 10 Cloud continue de susciter l’intérêt de la toile, et peu après une fuite de captures d’écran ce sont une image ISO du système et une vidéo de celui-ci en action qui ont fuité.L’image ISO de Windows 10 Cloud, en la personne de Windows 10 Cloud…
L’OVH World Tour devient l’OVH Cloud Day !
Public, Private ou Hybrid Cloud : les entreprises sont de plus en plus nombreuses à héberger leurs données et applications dans le nuage. Des coûts réduits, des infrastructures dématérialisées et une scalabilité à toute épreuve garantissent à chaque…
Difenso obtient la certification ANSSI pour sa solution de chiffrement de données
Difenso, une startup française, vient d’obtenir une certification ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information) de premier niveau de confiance. Solution européenne pour sécuriser les e-mails et les milliards de données sensibles…
MapR annonce la disponibilité de sa Converged Data Platform pour Docker
MapR annonce la disponibilité du premier système de stockage persistant pour conteneurs, offrant partout un accès complet aux fichiers, tables de base de données et flux de messages. La MapR Converged Data Platform pour Docker inclut le MapR Persistent…
ANALYSES
Fog Computing : IoT, Cloud Computing et local
Le monde technologique aime les nouveaux concepts ou faire passer pour nouveau ce qui existait déjà mais pas avec le même mot. Le Fog Computing c…
Lire la suite des Analyses
AVIS D’EXPERTS
Infrastructures Cloud et Connectivité en France : 3 tendances pour 2017
Les annonces d’investissement des grands acteurs américains du cloud sur le territoire français se sont succédé en 2016. Quels vont être leurs…
Lire la suite des Avis d’experts
SUITE ACTUS
Equinix acquiert les activités de la société d’exploitation de datacentres IO UK
AWS lance l’AWS Academy
Parasoft Virtualize disponible dans Visual Studio Team Services, sur Azure et en Community Edition
Skyhigh Networks annonce une solution de sécurité Cloud pour les applications propriétaires et les plateformes IaaS
IBM lance le programme «Digital – Nation Africa»
VIDELIO – Media et AJ annoncent CloudMedia, solution gérée pour le déploiement de services de vidéo en ligne
En’jo s’appuie sur Microsoft Azure Suite pour accélérer son développement
Lire le reste de l’Actualité sur cloudmagazine.fr
LIVRES BLANCS
La protection des données est un enjeu essentiel qui doit s’envisager au niveau global dans l’entreprise
Drooms tire les leçons du scandale PRISM sur la protection des données confidentielles. Les révélations d’Edward Snowden à partir de juin 2013…


Programmez n° 204
Open Source & Azure
Service Fabric : une plateforme PaaS sous stéroïdes
Consulter le sommaire complet
Nefer-IT © 2014. Tous droits réservés
SARL inscrite au RCS d’Evry, n°797 642 857 siège social : 7, Avenue Roger Chambonnet 91220 Brétigny sur Orge
Pour ne plus recevoir cette newsletter demandez votre désinscription ici.
Newsletter N°:
130
Avis d'experts Newsletter:
Détails:
Infrastructures Cloud et Connectivité en France : 3 tendances pour 2017
Livres blancs Newsletter:
Détails:
La protection des données est un enjeu essentiel qui doit s’envisager au niveau global dans l’entreprise
A la une Newsletter:
Details :
Google doit remettre les mails stockés à l'étranger à la justice américaine
Windows 10 Cloud en vidéo
L’OVH World Tour devient l’OVH Cloud Day !
Difenso obtient la certification ANSSI pour sa solution de chiffrement de données
MapR annonce la disponibilité de sa Converged Data Platform pour Docker
Suite actus Newsletter:
Détails:
Equinix acquiert les activités de la société d’exploitation de datacentres IO UK
AWS lance l'AWS Academy
Parasoft Virtualize disponible dans Visual Studio Team Services, sur Azure et en Community Edition
Skyhigh Networks annonce une solution de sécurité Cloud pour les applications propriétaires et les plateformes IaaS
IBM lance le programme «Digital – Nation Africa»
VIDELIO – Media et AJ annoncent CloudMedia, solution gérée pour le déploiement de services de vidéo en ligne
En’jo s’appuie sur Microsoft Azure Suite pour accélérer son développement
Page d'attérrissage:
130.html
Date d'expédition:
Lundi, Février 13, 2017
Objet:
Fog Computing, Infrastructures Cloud et Connectivité en France, Gmail et la justice américaine
Analyses:
Détail:
Fog Computing : IoT, Cloud Computing et local
Programmez titre:
Programmez n° 204
Programmez couverture:
http://www.programmez.com/sites/default/files/styles/magazine_couver_home/pub…
Programmez article 0:
Open Source & Azure
Programmez article 1:
Service Fabric : une plateforme PaaS sous stéroïdes
Go to Source
Newsletter n° 130 was originally published on JDCHASTA SAS
0 notes