#Algoritmi de Machine Learning
Explore tagged Tumblr posts
crypto28ro · 3 months ago
Text
Dynamic Fee Adjustment Algorithms: Algoritmi pentru Tranzacții Optimizate
Introducere În rețeaua Bitcoin, costurile de tranzacționare sunt determinate în mare măsură de comisioanele plătite de utilizatori pentru a include tranzacțiile în blocuri. Cu cât rețeaua este mai aglomerată și spațiul disponibil în blocuri este mai limitat, cu atât comisioanele cresc, influențând timpii de confirmare și experiența utilizatorilor. În acest context, optimizarea costurilor de…
0 notes
enkeynetwork · 1 year ago
Link
0 notes
septentrrional · 6 years ago
Text
Review Politehnica - an 4 semestrul 2
Un semestru usor pe care l-am facut si mai usor prin bagarea adanca a celor doua picioare in orice inseamna facultate, mai putin licenta - se vede si in note, dar oricum sunt doar 3 materii in semestrul asta si nu ma poate afecta decat vreo 0.08 din media pe 4 ani, deci irelevant - am preferat sa invat doar ce conteaza, cand conteaza. Cu alte cuvinte am facut 20% efort pentru 80% rezultat, nu 100% efort pentru 100% ca pana acum.
Ca si semestrul trecut, voi incepe putin prin a discuta materile de la alte specializari pe care nu le-am avut, desi de data aceasta stiu mult mai putin despre ele. Am luat ML (Machine Learning) de la C4 ca optional si EIM (de la C1) in loc de IDP.
C1:
Voi discuta doar de VLSI aici, intrucat EIM voi discuta la specializarea mea.
VLSI - o materie cu Decebal, unde foarte rar se face cursul si foarte rar si laboratorul (clasic Decebal). Stiu ca au de montat un procesor in ceva numit Microwind. Posibil sa fie interesant, dar tinand cont ca e cu Decebal e predat prost de catre un prost. Stiu ca proiectul se copiaza si ii trece usor la examen, tinand cont ca sunt anul 4.
C2:
SII - Sisteme Integrate Inteligente.
Asta este o materie pe care poate ar fi fost mai bine sa o iau, in loc de EIM, cu un prof care are doctorat de la MIT si e foarte bun. Inteleg ca de predat nu e predata cine stie ce, dar implica niste TS aplicat din ce stiu eu si ceva algoritmi pentru roboti, deci pare suuuuuper misto. Au avut si un proiect la care puteai sa faci ceva misto (sa implementezi un paper) si o tema in care sa implementeze un filtru Kalman extins mai complicat. Ah, si totul se face in Matlab <3. Au picat foarte multi, dar le-a mai dat puncte in plus sa treaca.
TSSC - Testarea securitatii sistemelor de calcul
O materie din ce inteleg de umplutura, dar cu un prof foarte bun pe securitate (oficial el e trecut drept coordonatorul meu de licenta, in practica nu am schimbat vreodata o vorba cu el). Cica au avut ceva CTF-uri interesante.
C3:
Specializarea mea pe care o discut la sfarsit, cu exceptia la IDP pe care l-am schimbat.
IDP - Instrumente pentru dezvoltarea programelor
O foaaaarte mare frectie. Se face ceva despre Android, despre design patterns, despre Docker. Au un proiect de facut in Docker, atat. Cam ca o tema la SPRC, decat ca trebuie deployata si in Cloud (AWS). S-a copiat in draci la examen si s-a luat 10 grupa mare.
C4:
Mi-am luat ML de aici, asa ca discut doar despre cealalta materie - SCAD.
SCAD - Sisteme CAD/CASE
Cu Boicea. Cica e acelasi fa chestia asta in 4 moduri. Nu stiu despre ce e vorba, dar cred ca este de tras sageti prin niste chestii grafice.
C5:
ECOM - E-commerce
Cu Nirvana. Stiu ca aveau de facut un magazin pe un site sau ceva de genul, iar laboratorul nu se prea facea, dar cand se facea era cu Vlad Ciobanu (laborantul de la CN2).
PWEB - Programare Web
Se face cu Dobre (ca si APD la CC si IDP la C3). Umbla vorba ca ai invata ceva, mai ales ca laboratoarele sunt si cu Chilipirea, unele. Stiu ca o laboranta tragea de prof sa le mareasca notele/sa-i treaca.
-------------
Acum, materile luate de mine:
SO2 - Sisteme de Operare 2
Ce se face de fapt, este ca se urmeaza in mare parte temele de discutie de la SO1, dar de data aceasta se intra in implementarea lor la nivel de cod, in kernel. Se face o introducere, se discuta despre syscalluri si intreruperi iar apoi despre procese, threaduri, memorie, sisteme de fisiere, retea si in plus, fata de SO1 si de virtualizare si debugging la nivel de kernel.
Cursul - Am luat materia asta cu asteptari foarte mari de la ea, mai ales ca la SO1 am invatat pe rupte si am masterat complet subiectul. Ma asteptam sa ajung un soi de guru acum. Ideea e ca anul acesta a revenit proful “original” (anul trecut a fost plecat) si a iesit naspa, pentru ca desi omul este foarte foarte bun la sisteme de operare, este varza la predat. Pierde foarte repede atentia studentilor si sare de la una la alta fara un plan concret. Ce-i drept, puteai sa citesti niste carti (multe si lungi) despre kernel ca sa intelegi perfect - dar nu am facut asta si probabil mai nimeni din colegii mei, poate doar sa fi frunzarit prin ele (cum am facut si eu, de altfel). O sa le citesc totusi - o sa fac o lista cu lecturi dupa ce termin facultatea si o sa le urmez in timp - am destule subiecte pe care vreau sa le masterez. Teoretic materia asta chiar te face guru (adica sunt multe chestii pe care probabil le stiu foarte foarte putini oameni), dar modul de predare este dezastruos. Ce nu mi-a mai placut este ca se discuta mult despre x86 - eu as fi preferat si alte arhitecturi (ARM mai ales, ca mie imi plac armele).
Laboratorul - Este bun, am facut cu Baluta care este foarte bun la kernel (lucreaza in industrie cu asta) - explica foarte bine, mult mai bine ca proful de curs. Laboratoarele au un breviar teoretic care sincer mi se pare bunicel, desi nu acopera laboratorul si teoretic trebuie sa cauti tu prin codul kernelului - dar in practica nu ai timp sa faci asta in timpul laboratorului, pentru ca este mult si plin de chichite (si contrar asteptarilor, kernelul nu este documentat neaparat extraordinar de bine - nu e rau, dar nici bestial). Din fericire, aveai la dispozitie si rezolvarile pentru cand te blochezi :).
Testele de curs - sunt o gluma proasta, s-au dat, in fapt, doar cateva. Care erau destul de grele, dar ok daca citeai inainte (adica nimereai 2 din 3 cu minim efort). In schimb, au fost punctate astronomic - eu am full pe toate, desi stiu ca am mai si gresit. De pe la jumatatea semestrului testele de curs au constat in intrebari puse de noi - deci 10 din oficiu. In plus, astea tin loc de examen, deci nu mai treci odata prin materie, sa faci review, sa mai intelegi lucruri.
Temele - cuvantul de ordine aici este GREU. Te forteaza ca inginer si ca programator dincolo de limitele tale, cu mult. Nu cred ca am scris vreodata cod atat de greu. Este o tema de incalzire, 3 teme “obisnuite”, una bonus si una mega bonus (si grea). Fiecare tema valoreaza 1.5 puncte (deci enorm) si automat pierzi 30% din punctaj daca o trimiti mai tarziu de 2 saptamani. Eu aici am pierdut de fapt punctaj, pentru ca am facut toate temele default (fara bonusuri) in ultimele 2 saptamani. Daca nu m-as fi apucat tarziu (din lipsa de motivatie din cauza ca termin facultatea si pentru ca licenta ma pasiona si speria simultan) as fi avut 10 fara discutii. De fapt, am avut full la fiecare categorie mai putin teme. Ce este cu adevarat trist este ca am multi colegi care efectiv modificau teme de pe github cu mossul in fata. Adica copiau fara jena (si cu siguranta ca nu sunt prinsi). Nu zic, si eu m-am uitat si pe git de destul de multe ori, dar cand am verificat daca intr-adevar apare copiat nu a aparut niciodata, deci nu am copiat. Dar aveam colegi care faceau o tema in 6 ore.. si asta chiar nu e posibil la SO2, sunt mult prea grele. Eu in 2 saptamani am zis ca mor de cat de greu este sa le fac. In orice caz, ma ajuta mult pentru embedded si simt ca am invatat. Din punctul meu de vedere am luat 10 la materia asta.
Nota: mea 8.31 (intarzierile astea..), curs 4, lab 8 (cam grele, totusi), teme 10, examen (adica teste de curs) 5 (pentru ca macar le puncta lejer, daca sa inveti nu te faceau).
ML - Machine Learning
Se face o introducere (foarte buna) mai degraba lata decat adanca in ML, dar inveti suficient de in detaliu cat sa poti aplica. Concret, se incepe cu arbori de decizie, apoi regresie liniara, se trece la reinforcement learning, apoi SVM-uri, algoritmi genetici, retele neurale si deep learning, modele Markov ascunse si se termina cu aspecte practice si cu unele teoretice despre ML, in general.
Cursul - a fost cu decana si a fost tinut suuuuuuper bine fata de IA. De fapt, este in top 3-4-5 cursuri din facultate daca ma gandesc la calitatea predarii. Absolut impecabil. Este necesar, totusi, sa stii bine matematica, pentru ca este multa pe slideuri si daca nu esti foarte confortabil cu ea te pierde repede. Ce imi mai place este ca a fost updatata materia, este mai actuala de la an la an.
Laborator - laboratorul este greu, dar laboranta explica bine, este de treaba, puncteaza foarte bine si este si frumoasa (a 2-a laboranta frumoasa in 4 ani de Poli =)) ). Macar am scapat de jupyter notebook. Se servesc destul de mult pentru ca e greu sa le termini singur.
Temele - 3 teme - una cu reinforcement learning, simpluta, una cu SVM-uri, iar simpluta si una la alegere intre reinforcemenet learning, retele neurale si algoritmi genetici. Singura parte proasta este ca iti ia o zi doar sa faci rularile si graficele, deci trebuie sa te apuci putin din timp, ca ele nu-s grele. Tema 3 nu am mai facut-o pentru ca am zis ca mai bine sa invat SO2, dar era misto daca o faceai ca puteai sa folosesti frameworkuri de retele neurale, deci ar fi dat foarte bine in CV pentru cine vrea sa faca ML in cariera.
Testele de curs - clasic decana, usoare si iti da maxim doar daca ai fost prezent.
Examenul - este impartit in doua, partial si examen final, cu degrevare. Ambele sunt usoare, dar cred ca depinde cine iti corecteaza. La partial, de exemplu, mi-au fost taiate multe puncte (am luat 40/60) desi credeam ca am facut de maxim sau pe-aproape. La final m-am dus cu chestile stiindu-le doar principial si gasind implementari sau inventand modele si formule pe loc si am luat aproape maxim.. Deci subiecte usoare, corectare relativ random.
Nota mea - 8, curs 10, laborator 10, teme 10, partial 8 (corectarea), examen 10.
EIM - Elemente de informatica mobila
O materie care te trece din avion prin tehnologii de comunicatii fara fir si probleme conexe. Se incepe printr-o introducere in Android (foarte scurta, ca se face pe lung la laborator), radio (layer 1), accces la mediu (deci layer 2), apoi chestii de telefonie mobila si telecomunicatii, se continua cu WiFi iar apoi se discuta despre zeroconf (cum sa iti iei IP, DNS si altele, fara sa fie necesar un server in prealabil sau o configurare statica), se discuta despre comunicatii de voce peste internet si SIP si se incheie cu tehnici de localizare si GPS.
Cursul - predat cam prost, prea din avion, dar macar retii ceva. Adica e un plus daca te duci la curs. Random mai da niste bilete cu niste coduri pentru teste pe care sa le dai de acasa (prezenta la curs). Eu am uitat de 2 ori sa il dau iar de la jumatatea semestrului nici nu am mai avut chef sa ma duc, deci nu m-am mai dus. Problema cu materia e ca e prea frunzarita, mai bine si-ar alege 2-3 teme pe care sa le discute in detaliu, asa stii nimic despre orice. Mai bine sa stii ceva despre putin.
Laboratorul - se face Android. E multa teorie si ti se zice de multe chestii in detaliu, dar cerintele de la tine sunt minimale, si oricum nu se puncteaza. se dau doar niste teste teoretice cu rol de prezenta (bonus ca la curs). M-am dus la circa 3-4 laboratoare, nu am invatat nimic, mi-am dat seama ca nu imi place Android si nu m-am mai dus decat la colocvii.
Colocvii - colocvile de laborator sunt ca niste aplicatii destul de complexe in Android, care seamana cu un model pus pe siteul cursului de prof. Daca il lucrezi pe ala nu ai probleme, se ia usor maxim. Exista unul la mijloc de semestru (din chestii de baza) si unul la final (bazat mai mult pe retelistica in Android). Partea de cacat este ca se poate chiar repeta materia din cauza lor - am destui colegi care fac un an in plus de Poli doar pentru asta. Am avut si 3 colegi care au copiat intre ei si asta le-a dat 4 si le-a zis sa mai faca materia odata... pentru jegul asta la care te duci doar la colocvii. Un coleg a picat pentru ca nu i se conecta aplicatia la Internet pentru ca a uitat sa isi activeze datele... da, stiu, proful e robotel.
Examenul - usurel, zice el ca trebuie sa citesti din nu stiu ce carti, dar merge si fara destul de lejer. Problemele sunt tip (niste chestii cu coduri ortogonale). Exista si un partial si un final, iar finalul este fara degrevare. Nu m-am prins cum puncteaza, dar cert e ca a reusit sa ma ciupeasca la punctaj. Ma rog, nu imi pasa de nota, deci nu am comentat. Ironia e ca dupa ce mi-a dat 9 la materia asta, mi-a dat mail daca vreu sa ii fiu asistent. Asta inseamna sa fii dobitoc. Gen nu vreau sa recunosc ca esti bun daca nu vi la curs si laborator, dar te vreau asistent.
O veste buna este ca materia nu are teme (nu as fi suportat sa fac teme in Android).
Nota mea - 9, curs - 7, laborator 4, colocvii 6 (prea usor, nu stii nimic, dai un copy paste de pe net si iei 10..), examene 9 (notarea nu ma prind cum o face)
Ce am predat eu
Ca si anul trecut, am ramas cu MN-ul. A mers mult mai bine anul asta, am avut si o grupa foarte foarte buna (au luat, in medie, cu 2 puncte mai mult in examen fata de restul seriei - deci f mult, aproape de 9 media). Si eu am predat mult mai bine si mai interactiv. Din pacate unul din laboratoare (ca e pe semigrupe) e la 8 dimineta, si nu ma puteam trezi asa ca ajungeam la 9. Na... stiu ca nu e ok, dar chiar nu puteam, nu mi-am dat seama ca va fi asa. Sper sa fie ok studentii cu asta, oricum fata de restul asistentilor eu chiar am bagat carte in ei. Am facut si un experiment, le-am zis la primul laborator ca le dau la toti 10 pe laborator asa ca sa nu serveasca si sa fie atenti. Si a mers! O sa fac la fel si anul viitor, asta daca se va tine MN, pentru ca se schimba planurile de invatamant si inteleg ca MN va fi mutat la anul 2, deci va exista un an de gap.
Am tinut, in plus si PM - unde studentii sunt dependenti de asistent total, nu pot face nimic fara ajutor. Am avut o grupa mediocra, dar totusi am 2 studenti care sunt in top 10 proiecte la PM Fair. Chiar asa, PM Fair se vede mult mai misto din perspectiva asistentului, ca student, proiectele bune fiind rasfirate in toata ziua, nu vezi prea multe. O sa propun sa reusim sa facem cumva sa vada si studentii anul viitor.
Cam asta a fost aventura mea ca student (la licenta), o sa mai fac o postare despre licenta in sine si reflectii cu privire la ce am trait in Poli si cum a fost facultatea, voi discuta si despre job si intershipuri, dar asta dupa ce voi putea sa abuzez oficial de cele 3 litere si un punct in fata numelui (ing.).
1 note · View note
jurnaldeoltenia · 5 years ago
Text
Automatizarea procesării documentelor de popriri la 371 de sucursale BCR
Automatizarea procesării documentelor de popriri la 371 de sucursale BCR
La începutul acestui an, Banca Comercială Română (BCR) a demarat procesul de implementare a sistemului de automatizare a procesării documentelor de popriri la nivelul a 371 dintre sucursale cu o soluție furnizată de Zipper România. Sistemul asigură extragerea automată a datelor din documente, folosind tehnologiile AI și Machine Learning, ce au la bază algoritmi si reguli de business ce…
Tumblr media
View On WordPress
0 notes
yeschanneltech · 6 years ago
Text
Observability e performance di business, le analisi di Kirey Group
New Post has been published on https://www.channeltech.it/2019/11/05/observability-e-performance-di-business-le-analisi-di-kirey-group/
Observability e performance di business, le analisi di Kirey Group
Tumblr media
Elena Fasolo e Claudio De Rossi di Kirey Group illustrano l’importanza dell’observability quale base per comprendere le performance di business.
Elena Fasolo, Senior Manager – IT Data Analytics di Kirey Group – e Claudio De Rossi, Business Development Manager, ci offrono una attenta analisi del fenomeno.
Una complessità infrastrutturale e applicativa crescente caratterizza lo scenario digitale. Questo, a fronte di interazioni tra i diversi layer e sistemi in aumento. Come abilitare la fornitura di servizi complessi sicuri?
In tale scenario, il proliferare di strumenti rigidi rischi di frenare lo sviluppo del business. Le aziende hanno a disposizione molti, a volte troppi, strumenti eterogenei incapaci di dialogare tra loro. Algoritmi di analisi standard che non li aiutano a mettere a fattore comune i tanti dati per abilitare una loro comprensione di più alto livello. Tutto questo mentre i “dark data” si accumulano negli strati intermedi dei sistemi operativi di ogni azienda, spesso senza che questa ne abbia una reale consapevolezza.
Visibilità globale del servizio e intervento tempestivo
Un’infrastruttura composta da diversi layer rappresenta quindi una sfida impegnativa dal punto di vista della comprensione. Le attività di monitoraggio devono integrare dati semanticamente distanti, ma correlati, e comprendere in tempo reale dove siano le criticità.
È fondamentale tenere presente che ogni organizzazione differisce dall’altra, in virtù dei suoi obiettivi, necessità di business e dello scenario nel quale opera. Per questo, l’observability non si limita al monitoraggio, ma affianca una conoscenza profonda della realtà in cui si sta operando. Questo attraverso un approccio consulenziale e personalizzato, perché non esiste un progetto di data governance uguale all’altro.
Observability e performance di business
Un ottimo punto di partenza è rappresentato da Elasticsearch, una piattaforma open altamente personalizzabile. Essa è capace di integrarsi con le soluzioni già esistenti in azienda e, unita alla comprensione delle esigenze specifiche del cliente, permette di supportarlo nel raggiungimento di obiettivi concreti.
Elasticsearch è un tassello prezioso dal punto di vista della capacità di ottenere una “visibilità totale”. Il sistema consente di raccogliere, analizzare, correlare e presentare vaste moli di dati eterogenei. Tra questi, i log applicativi, KPI di processo, workflow di business e altri dati utili allo scopo, come per esempio i browser utilizzati dagli utenti, i tempi delle sessioni di lavoro e altro. L’architettura sottostante è invisibile all’utente, che percepisce tutto come un’unica entità, sebbene la natura distribuita dello stack faccia sì che i processi siano interconnessi tra loro.
Observability e performance di business, un progetto concreto
Possiamo citare un progetto portato a compimento da Kirey, parte di un’ampia iniziativa avviata da una Compagnia assicurativa per migliorare la customer experience. La Compagnia forniva alle proprie agenzie, distribuite su tutto il territorio nazionale, una serie di strumenti software per la gestione dell’operatività quotidiana. In caso di problemi, la casa madre non aveva a disposizione strumenti adatti a eseguire un’investigazione rapida delle cause. I sistemi commerciali di monitoraggio applicativo fornivano informazioni limitate sullo stack, senza offrire eventuali correlazioni con gli altri indicatori.
L’analisi effettuata sui processi del cliente ha permesso di identificare una serie di indicatori e KPI strategici. Adottando Elasticsearch e sfruttando la capacità di observability dello stack abbiamo messo a disposizione uno strumento in grado di monitorare in tempo reale lo stato dei processi di business. Il sistema controlla una serie di informazioni di contesto fondamentali per determinare le cause di malfunzionamenti, siano essi reali o percepiti.
La realizzazione di questo strumento ha permesso inoltre di rafforzare le aree aziendali incaricate dell’analisi e miglioramento delle performance delle agenzie. Anche dal punto di vista del management, avere a disposizione dashboard aggiornate in tempo reale consente alla Compagnia di avere una chiara idea di come performance e business siano correlati. Permette inoltre di tracciare le strategie da implementare e di misurare quantitativamente i benefici introdotti dalle azioni di miglioramento intraprese.
Observability e performance di business, si potenzia nei laboratori di Kubris
Gartner stima che le analitiche potenziate, la continuous intelligence e l’evoluzione dell’intelligenza artificiale siano i trend che avranno un impatto dirompente nei prossimi 3-5 anni. La sopravvivenza di qualsiasi azienda dipenderà dalla capacità di abilitare un’architettura agile, incentrata sui dati, che risponda al costante tasso di cambiamento. Per questo motivo Kirey, in collaborazione con il team del proprio centro di ricerca e sviluppo Kubris, lavora costantemente per potenziare i propri algoritmi con l’intelligenza artificiale e il machine learning.
Il progetto “observability” è in continua evoluzione e, nel prossimo futuro, il perimetro di dati in ingresso sarà ulteriormente esteso, con una sempre maggiore precisione e visibilità sull’intero flusso di lavoro. Lo stream non sarà più solo “tecnologico” ma entrerà nel contesto business, per fornire informazioni e visibilità sugli indicatori di performance dei processi. Le funzionalità di ML di Elasticsearch, unite agli algoritmi personalizzati di Kubris, permetteranno di introdurre controlli automatizzati, nell’ottica di un monitoraggio predittivo di eventuali anomalie.
Se la quantità di dati sta crescendo rapidamente, l’urgenza di trasformarli in valore in tempo reale sta crescendo a un ritmo altrettanto rapido. Ottenere una observability completa per valutare le performance di business sarà un’esigenza non più trascurabile per qualsiasi tipologia di azienda.
0 notes
incomodtutorials · 7 years ago
Text
Samsung Q900R QLED 8K vine oficial în România
Tumblr media
Samsung Q900R QLED 8K, primul televizor cu rezoluție 8K, a fos lansat oficial in Romania. Va fi disponibil in trei variante, cu diagonale de 65, 75 și 85 de inch. Printre principalele specificatiile tehnice ale noului televizor QLED 8K se numara: rezoluția Real 8K are la bază 33 de milioane de pixeli care dezvăluie până și cele mai mici detalii din fiecare scenă; tehnologia Q HDR 8K – bazată pe tehnologia clasică High Dynamic Range 10+, optimizează parametrii de culoare şi nivelurile de luminozitate din fiecare scenă, prin metadata dinamică, pentru a reda imagini impecabile; tehnologia 8K AI Upscaling – cu procesul machine learning și cu ajutorul inteligenței artificiale, Samsung QLED 8K Q900R poate crește calitatea conținutului pentru a obține detalii îmbunătățite, zgomot redus și margini mai detaliate; procesorul Quantum 8K – cu tehnologia sa exclusivă, Samsung QLED 8K utilizează inteligenţa artificială pentru a crea algoritmi de îmbunătăţire a conținutului cu rezoluție redusă si a-l transforma în conținut de aproape 8K. Optimizează sunetul, se adaptează la nivelul luminozității camerei tale și chiar îți recomandă conținut și informații prin comenzi vocale; Direct Full Array Elite – ce oferă un contrast sporit și un control precis al luminii de fundal, precum și un volum de culoare de 100%, permițând utilizatorilor să fie fascinaţi de un miliard de nuanțe de culoare. Noul televizor Samsung Q900R QLED 8K va fi disponibil în România începând cu data de 2 noiembrie. Read the full article
0 notes
90revolution · 8 years ago
Text
Echipa eMAG organizează în fiecare an o întâlnire cu jurnaliști și bloggeri, în care ei ne prezientă realizările și problemele întâlnite de eMAG pe parcursul anului, iar noi le spunem ce probleme am observat din perspectiva clienților, și, de ce nu, le facem sugestii pentru îmbunătățirea serviciilor.
Iulian Stanciu, CEO-ul eMAG spune că în România încă mai este mult loc pentru ca un magazin online să crească. Țara noastră are cea mai mică rată de pentetrare a eCommerce-ului din UE (3.2% din totalul retail-ului), și asta și din cauză că avem cel mai scăzut indice DESI din UE.
Acest indicator măsoară gradul de digitizare al unei țări, iar culoarea albastru închis (5) pe grafic arată gradul de digitizare al serviciilor publice. Ca să fiu sincer, mă mir că nu este cu minus în cazul nostru. Pe măsură ce oamenii se vor obișnui să folosească serviciile publice online, va crește și economia digitală. Dacă nu mă înșel, în China economia digitală valorează 30% din PIB. Și tot mai multe puteri mondiale pun economia digitală pe primul lor. Asta așa, ca să știți pe unde suntem noi ca țară.
eMAG și măsurile guvernului
S-a întrebat și ce părere au de măsurile fără cap ale guvernului. Iulian a spus mai în glumă mai în serios că dacă s-ar fi introdus impozitul pe cifra de afaceri, eMAG ar fi fost la un pas de a-și lua la revedere. Dacă ar intra în vigoare codul fiscal în forma actuală, angajații în IT ar avea o scădere de 10% a salariului sau firmele de IT ar trebui să suporte o creștere de 10% a taxelor. După cum sublinia și Iulian, este o prostie să pedepsești industria cu cea mai mare creștere la PIB. Cel mai mult îi doare lipsa de predictibilitate, și asta o simt și eu de când fac afaceri pe cont propriu.
Investițiile eMAG în 2017
Cea mai mare investiție s-a dus în depozitul eMAG. Nici mai mult nici mai puțin de 10 milioane de euro, investiți în zona de sortare și de consolidare a coletelor. Avantajul pentru noi (și pentru curieri) este că de acest Black Friday nu vom mai primi aceeași comandă împărțită în 2-3 livrări diferite. Apropo, pentru depozitul de lângă București colaborează cu vreo 20 de curieri diferiți. Anul trecut au livrat 800-900.000 de colete de Black Friday, iar anul acesta se așteaptă să depășească acest număr.
Plăți și livrare
Între timp, parteneriatul cu Poșta Română bate noi recorduri. În 2017 au deschis 320 de puncte de livrare împreună cu aceștia, iar numărul total de oficii poștale active a ajuns la 600.
Timpul mediu de livrare în București a scăzut la 1.8 zile, și spun că ar mai fi loc de îmbunătățit aici. Ei spun că pentru opțiunea nou introdusă, livrarea în intervalul orar, abaterea medie este de maxim 20-30 de minute. Între timp a scăzut și timpul de retur al banilor, la o medie de 2.4 zile. Este un mit faptul că plățile ramburs se livrează mai rapid față de cele cu cardul.
Un lucru îmbucurător este creșterea plăților cu cardul. Acum sunt 300.000 de carduri salvate în contul de client (apropo, datele nu sunt salvate pe serverul eMAG, hackerilor mici), iar pentru cardul eMAG a fost o cerere foarte mare: 6000 de carduri în 9 zile. Parcă mă bate gândul să-mi iau și eu unul 🙂
Îmbunătățiri la site
Cea mai mare îmbunătățire este legată de pagina de produse, care nu își mai dă refresh după ce aplici un filtru. Tot aici au implementat și algoritmi de machine learning care le-a îmbunătățit rata de click. Ne-au spus că stickerul cu “ultimul produs în stoc” este pe bune, și că nu este doar o tactică. Și ce observasem și eu, au început să apară tot felul de campanii cu buy-back, pe principiul “primești 150 de lei dacă dai televizorul vechi înapoi”.
Pentru partea de client service, în 2-3 săptămâni vor lansa un chat. Părerea mea este că vor să renunțe treptat la call center, și nu-i condamn.
Alte cifre
În rest, lucrurile stau bine pentru ei. Au ajuns la 500.000 de clienți unici pe zi, iar din vizite, 71% sunt de pe mobil. Au 1.000 de selleri în cele patru țări unde activează, 4.000 de angajați și 6.000 de parteneri în Marketplace. Din totalul produselor, vreo 200.000 sunt ale lor și alte 1.6 milioane ale partenerilor. Anul acesta vor depăși 2.000.000 de produse. Toate aceste produse au aproape 700.000 de review-uri.
Căutări amuzante pe site-ul eMAG
În încheiere, să ne distrăm un pic cu review-uri și căutări amuzante pe site-ul eMAG. Sper să fie lizibil:
Nu, nicio discuție despre Black Friday 2017, însă ne așteptăm la o conferință specială dedicată evenimentului 🙂
Noutăți de la întâlnirea anuală cu echipa eMAG (2017) Echipa eMAG organizează în fiecare an o întâlnire cu jurnaliști și bloggeri, în care ei ne prezientă realizările și problemele întâlnite de eMAG pe parcursul anului, iar noi le spunem ce probleme am observat din perspectiva clienților, și, de ce nu, le facem sugestii pentru îmbunătățirea serviciilor.
0 notes
giuliocavalli · 8 years ago
Text
Stanno vendendo in nostri dati clinici a IBM?
Stanno vendendo in nostri dati clinici a IBM? (Un articolo importante, perché sarà uno dei temi politici del futuro, e sarebbe il caso di occuparsene subito) La sanità è uno dei settori maggiormente rivoluzionati dallo sfruttamento dei big data e del machine learning: aziende come Google ed IBM sono in grado, ad esempio, di riconoscere cellule tumorali grazie ai loro algoritmi di intelligenza artificiale, aiutando quindi i medici nelle loro attività di cura e prevenzione. Il 31 marzo 2016, durante una visita dell'allora primo ministro Matteo Renzi alla nuova sede del centro Watson Health di IBM a Cambridge, MA, è stato firmato un accordo per creare un centro di eccellenza europeo Watson Health a Milano. Come si può leggere dal post ufficiale di IBM, "il Centro è parte di una collaborazione a lungo termine fra IBM ed il governo italiano. IBM intende investire fino a 150 milioni di dollari nei prossimi anni e raccogliere insieme esperti di data science, ingegneri, ricercatori e designer per sviluppare la prossima generazione di applicazioni e soluzioni per la salute, basate sui dati." Inoltre, prosegue il comunicato ufficiale, sarà offerta la possibilità di "lavorare in collaborazione con altre organizzazioni europee per creare una nuova tipologia di soluzioni che sfruttano il cloud, all'intersezione fra l'informatica cognitiva, le scienze biologiche e l'assistenza sanitaria." Ci troviamo di fronte alla formula magica del XXI secolo: soluzionismo tecnologico in soccorso dell'umanità. Purtroppo, però, ogni dettaglio di questo accordo è coperto da una fitta coltre di nebbia. Lo scorso 15 febbraio, il Fatto Quotidiano ha rivelato che l'accordo prevede la fornitura ad IBM dei dati sanitari di tutti gli italiani, a partire da quelli che vivono in Lombardia. I documenti confidenziali che ne descrivono i termini — ottenuti dal giornalista Gianni Barbacetto — indicano anche la natura dei dati clinici: "si ritiene cruciale avere accesso a dati dei pazienti, ai dati farmacologici, ai dati del registro dei tumori, ai dati genomici, dati delle cure, dati regionali o Agenas, dati Aifa sui farmaci, sugli studi clinici attivi, dati di iscrizione e demografici, diagnosi mediche storiche, rimborsi e costi di utilizzo, condizioni e procedure mediche, prescrizioni ambulatoriali, trattamenti farmacologici con relativi costi, visite di pronto soccorso, schede di dimissioni ospedaliere (sdo), informazioni sugli appuntamenti, orari e presenze, e altri dati sanitari," scrive Barbacetto nell'articolo de il Fatto Quotidiano. Recentemente, lo stesso giornalista è entrato in possesso di un documento della Regione Lombardia che sancisce l'avvio del progetto entro la fine di luglio, nel quale si conferma la possibilità per IBM di avere accesso ai dati di circa 3 milioni di cittadini lombardi affetti da patologie croniche.   Le modalità di utilizzo di questi dati però non sono ancora state comunicate nemmeno al Garante per la protezione dei dati personali: i dati clinici sono altamente riservati e contengono sempre informazioni sensibili sullo stato psico-fisico di un soggetto e pertanto devono essere protetti con debite procedure di anonimizzazione per garantire la preservazione della privacy dei pazienti. Sembra quindi che la scelta del governo — e della regione Lombardia — non abbia tenuto in considerazione tali ripercussioni sulla privacy dei cittadini e, nel frattempo, la richiesta di chiarimenti alle istituzioni non stia conducendo a risposte esaustive. (continua qui)
(Un articolo importante, perché sarà uno dei temi politici del futuro, e sarebbe il caso di occuparsene subito) La sanità è uno dei settori maggiormente rivoluzionati dallo sfruttamento dei big data e del machine learning: aziende come Google ed IBM sono in grado, ad esempio, di riconoscere cellule tumorali grazie ai loro algoritmi di intelligenza artificiale, aiutando quindi i medici nelle loro…
View On WordPress
0 notes
crypto28ro · 3 months ago
Text
Optimizarea procesului de mining cu algoritmi AI
Introducere Mining-ul criptomonedelor este esențial pentru menținerea integrității și securității rețelelor blockchain, însă vine la un cost energetic semnificativ. Într-o eră în care sustenabilitatea și eficiența energetică devin priorități globale, utilizarea tehnicilor de machine learning (ML) pentru optimizarea procesului de mining reprezintă o direcție promițătoare. Integrarea AI în mining…
0 notes
ulivero · 8 years ago
Text
Google a lansat „Google for Jobs”, propriul motor de căutare a locurilor de muncă
Google a lansat „Google for Jobs”, propriul motor de căutare a locurilor de muncă
Dacă eşti în căutarea unui loc de muncă, în curând vei putea să dai pur şi simplu un search pe Google pentru jobul dorit. Gigantul de tehnologie a lansat recent propria funcţie de căutare a locurilor de muncă, numită Google for Jobs. Noua funcţie implică algoritmi antrenaţi machine-learning pentru a sorta şi organiza lista de … Continuă să citești Google a lansat „Google for Jobs”, propriul…
View On WordPress
0 notes
andyviru · 8 years ago
Text
Google a lansat „Google for Jobs”, propriul motor de căutare a locurilor de muncă
Google a lansat „Google for Jobs”, propriul motor de căutare a locurilor de muncă
Dacă eşti în căutarea unui loc de muncă, în curând vei putea să dai pur şi simplu un search pe Google pentru jobul dorit. Gigantul de tehnologie a lansat recent propria funcţie de căutare a locurilor de muncă, numită Google for Jobs. Noua funcţie implică algoritmi antrenaţi machine-learning pentru a sorta şi organiza lista de … Continuă să citești Google a lansat „Google for Jobs”, propriul…
View On WordPress
0 notes
erobertul · 8 years ago
Text
Google a lansat „Google for Jobs”, propriul motor de căutare a locurilor de muncă
Google a lansat „Google for Jobs”, propriul motor de căutare a locurilor de muncă
Dacă eşti în căutarea unui loc de muncă, în curând vei putea să dai pur şi simplu un search pe Google pentru jobul dorit. Gigantul de tehnologie a lansat recent propria funcţie de căutare a locurilor de muncă, numită Google for Jobs. Noua funcţie implică algoritmi antrenaţi machine-learning pentru a sorta şi organiza lista de … Continuă să citești Google a lansat „Google for Jobs”, propriul…
View On WordPress
0 notes
crypto28ro · 3 months ago
Text
Prognoza pieței crypto folosind algoritmi de machine learning
Introducere În ultimii ani, piața criptomonedelor a cunoscut fluctuații extreme și volatilitate ridicată, atrăgând atenția investitorilor și a cercetătorilor deopotrivă. În acest context, algoritmii de machine learning (ML) au devenit instrumente esențiale pentru a anticipa mișcările pieței, a identifica tipare ascunse și a oferi previziuni care pot sprijini deciziile de investiții. Acest studiu…
0 notes
yeschanneltech · 6 years ago
Text
Nasce il centro di co-innovazione europeo NTT per clienti e partner
New Post has been published on https://is.gd/DBZWV2
Nasce il centro di co-innovazione europeo NTT per clienti e partner
Nasce il centro di co-innovazione europeo NTT. Dove le tecnologie e l’innovazione per clienti e partner. NTT Communication, Dimension Data e NTT Security sono le realtà più grandi che compongono NTT Ltd. Sono 31 le realtà che fanno parte del grande system integrator destinate a crescere.
Forte di 11 miliardi di dollari annui di fatturato, 70 country o region, tutto questo sarà sotto l’ombrello NTT, logo compreso, Emanuele Balistreri, Country Managing Director per NTT Ltd in Italia, illustra le novità della società che rappresenta in Italia.
Emanuele Balistreri
Numeri elevati per una realtà che si colloca tra i primi venti global system integrator al mondo. La società ha interessi in ambito security, hybrid cloud, managed services, client e employee experience, digital infrastructure.
Nasce il centro di co-innovazione europeo NTT per clienti e partner
Balistreri spiega i motivi per cui ci sia stata questa aggregazione, che continuerà. “Il modo con cui imprese e cittadini utilizzano la tecnologia cambia il modo di fare business. Oggi le realtà puntano maggiormente a un concetto di software defined, che deve essere programmato e manutenuto e protetto, lo scenario infrastrutturale sarà sempre più in multicloud, scenario – spiega Balistreri – in cui le infrastrutture sono sempre più sparpagliate. Anche in Italia c’è la spinta verso un servizio, anche nel mondo infrastrutturale. Dal punto di vista contabile – spiega – c’è sempre meno differenza tra ciò che è considerato investimento e costo. I principi contabili internazionali attenuano questa differenza e l’as a service rimuove questi scomodi vincoli. Così come la sicurezza. Oggi – spiega – è diventato qualcosa di diverso. Si parla di identità e di protezione dei dati, che sono il differenziante”.
Roberto Del Corno
Nasce il centro di co-innovazione europeo NTT per clienti e partner
Posto che ci si sta spostando verso l’as a service, secondo Balistreri tutte le infrastrutture diventeranno as a service. “Per i system integrator cambia il modo, la flessibilità finanziaria ad acquisire elasticità, crescendo o diminuendo a seconda delle esigenze”, afferma il country manager. Non si definiscono detentori della verità ma con un ecosistema di partner riescono ad avere un ecosistema per proporre il meglio ai clienti.
Roberto Del Corno, senior vice president global business Europe – NTT, si occupa di global business, un programma specifico per i clienti importanti con interessi globali, coloro i quali rappresentano un terzo del fatturato globale di NTT.
“L’innovazione è l’unica forza sostenibile per la differenziazione”, spiega Dal Corno. “Parliamo di capacità di innovazione di reaserch e innovation con 500 persone ricercatori giapponesi. Stiamo creando un altro team simile fuori dal Giappone, a Palo Alto e abbiamo creato una sede europea specializzata dedicata ai clienti e ai partner europei”.
Roberto Del Corno
Nasce il centro di co-innovazione europeo NTT per clienti e partner
Dal Corno racconta del nuovo Client Innovation Center, un luogo uno spazio di co-innovazione che dà la possibilità ai visitatori di sperimentare direttamente le possibilità offerte dalle nuove tecnologie e casi concreti di utilizzo di big data, intelligenza artificiale, machine learning, IoT, biosensori e dispositivi indossabili, realtà virtuale e aumentata, sicurezza e crittografia.
A Bruxelles sono esposte sei tecnologie e soluzioni differenti tra cui Kirari! Una simulazione olografica immersiva che consente di vivere come dal vivo qualsiasi evento. Flaim Trainer, un simulatore di di realtà virtuale immersivo dotato di bio-sensori e analytic di scenario in tempo reale che consente ai vigili del fuoco di allenarsi all’interno di contesti pericolosi che sono difficili da riprodurre nella realtà. Tour de France, una piattaforma di data analytics che integra algoritmi complessi per combinare i dati di gara live e storici con altri dati raccolti. Las Vegas, una piattaforma di smart city che utilizza sensori avanzati, machine learning e intelligenza artificiale. Hitoe è una maglia intelligente che raccoglie dati (battito cardiaco, attività muscolare) in tempo reale. Infine, edifici intelligenti ossia un sistema di comunicazione tra gli edifici e il cloud in grado di analizzare i dati e di rivelare nuove informazioni per il risparmio energetico, comfort e sicurezza.
0 notes
yeschanneltech · 6 years ago
Text
Observability e performance di business, le analisi di Kirey Group
New Post has been published on http://www.channeltech.it/2019/11/05/observability-e-performance-di-business-le-analisi-di-kirey-group/
Observability e performance di business, le analisi di Kirey Group
Elena Fasolo e Claudio De Rossi di Kirey Group illustrano l’importanza dell’observability quale base per comprendere le performance di business.
Elena Fasolo, Senior Manager – IT Data Analytics di Kirey Group – e Claudio De Rossi, Business Development Manager, ci offrono una attenta analisi del fenomeno.
Una complessità infrastrutturale e applicativa crescente caratterizza lo scenario digitale. Questo, a fronte di interazioni tra i diversi layer e sistemi in aumento. Come abilitare la fornitura di servizi complessi sicuri?
In tale scenario, il proliferare di strumenti rigidi rischi di frenare lo sviluppo del business. Le aziende hanno a disposizione molti, a volte troppi, strumenti eterogenei incapaci di dialogare tra loro. Algoritmi di analisi standard che non li aiutano a mettere a fattore comune i tanti dati per abilitare una loro comprensione di più alto livello. Tutto questo mentre i “dark data” si accumulano negli strati intermedi dei sistemi operativi di ogni azienda, spesso senza che questa ne abbia una reale consapevolezza.
Visibilità globale del servizio e intervento tempestivo
Un’infrastruttura composta da diversi layer rappresenta quindi una sfida impegnativa dal punto di vista della comprensione. Le attività di monitoraggio devono integrare dati semanticamente distanti, ma correlati, e comprendere in tempo reale dove siano le criticità.
È fondamentale tenere presente che ogni organizzazione differisce dall’altra, in virtù dei suoi obiettivi, necessità di business e dello scenario nel quale opera. Per questo, l’observability non si limita al monitoraggio, ma affianca una conoscenza profonda della realtà in cui si sta operando. Questo attraverso un approccio consulenziale e personalizzato, perché non esiste un progetto di data governance uguale all’altro.
Observability e performance di business
Un ottimo punto di partenza è rappresentato da Elasticsearch, una piattaforma open altamente personalizzabile. Essa è capace di integrarsi con le soluzioni già esistenti in azienda e, unita alla comprensione delle esigenze specifiche del cliente, permette di supportarlo nel raggiungimento di obiettivi concreti.
Elasticsearch è un tassello prezioso dal punto di vista della capacità di ottenere una “visibilità totale”. Il sistema consente di raccogliere, analizzare, correlare e presentare vaste moli di dati eterogenei. Tra questi, i log applicativi, KPI di processo, workflow di business e altri dati utili allo scopo, come per esempio i browser utilizzati dagli utenti, i tempi delle sessioni di lavoro e altro. L’architettura sottostante è invisibile all’utente, che percepisce tutto come un’unica entità, sebbene la natura distribuita dello stack faccia sì che i processi siano interconnessi tra loro.
Observability e performance di business, un progetto concreto
Possiamo citare un progetto portato a compimento da Kirey, parte di un’ampia iniziativa avviata da una Compagnia assicurativa per migliorare la customer experience. La Compagnia forniva alle proprie agenzie, distribuite su tutto il territorio nazionale, una serie di strumenti software per la gestione dell’operatività quotidiana. In caso di problemi, la casa madre non aveva a disposizione strumenti adatti a eseguire un’investigazione rapida delle cause. I sistemi commerciali di monitoraggio applicativo fornivano informazioni limitate sullo stack, senza offrire eventuali correlazioni con gli altri indicatori.
L’analisi effettuata sui processi del cliente ha permesso di identificare una serie di indicatori e KPI strategici. Adottando Elasticsearch e sfruttando la capacità di observability dello stack abbiamo messo a disposizione uno strumento in grado di monitorare in tempo reale lo stato dei processi di business. Il sistema controlla una serie di informazioni di contesto fondamentali per determinare le cause di malfunzionamenti, siano essi reali o percepiti.
La realizzazione di questo strumento ha permesso inoltre di rafforzare le aree aziendali incaricate dell’analisi e miglioramento delle performance delle agenzie. Anche dal punto di vista del management, avere a disposizione dashboard aggiornate in tempo reale consente alla Compagnia di avere una chiara idea di come performance e business siano correlati. Permette inoltre di tracciare le strategie da implementare e di misurare quantitativamente i benefici introdotti dalle azioni di miglioramento intraprese.
Observability e performance di business, si potenzia nei laboratori di Kubris
Gartner stima che le analitiche potenziate, la continuous intelligence e l’evoluzione dell’intelligenza artificiale siano i trend che avranno un impatto dirompente nei prossimi 3-5 anni. La sopravvivenza di qualsiasi azienda dipenderà dalla capacità di abilitare un’architettura agile, incentrata sui dati, che risponda al costante tasso di cambiamento. Per questo motivo Kirey, in collaborazione con il team del proprio centro di ricerca e sviluppo Kubris, lavora costantemente per potenziare i propri algoritmi con l’intelligenza artificiale e il machine learning.
Il progetto “observability” è in continua evoluzione e, nel prossimo futuro, il perimetro di dati in ingresso sarà ulteriormente esteso, con una sempre maggiore precisione e visibilità sull’intero flusso di lavoro. Lo stream non sarà più solo “tecnologico” ma entrerà nel contesto business, per fornire informazioni e visibilità sugli indicatori di performance dei processi. Le funzionalità di ML di Elasticsearch, unite agli algoritmi personalizzati di Kubris, permetteranno di introdurre controlli automatizzati, nell’ottica di un monitoraggio predittivo di eventuali anomalie.
Se la quantità di dati sta crescendo rapidamente, l’urgenza di trasformarli in valore in tempo reale sta crescendo a un ritmo altrettanto rapido. Ottenere una observability completa per valutare le performance di business sarà un’esigenza non più trascurabile per qualsiasi tipologia di azienda.
0 notes