#Azure API
Explore tagged Tumblr posts
bdccglobal · 1 year ago
Text
Tumblr media
Seamless Integration: Dive into the Power of Azure's API Management Toolset.
Elevate your connectivity, security, and efficiency in one robust solution.
2 notes · View notes
blogs4rustysilver · 2 years ago
Text
0 notes
freddynossa · 1 month ago
Text
Sistemas de Recomendación y Visión por Computadora: Las IAs que Transforman Nuestra Experiencia Digital
Sistemas de Recomendación: ¿Qué son y para qué sirven? Los sistemas de recomendación son tecnologías basadas en inteligencia artificial diseñadas para predecir y sugerir elementos (productos, contenidos, servicios) que podrían interesar a un usuario específico. Estos sistemas analizan patrones de comportamiento, preferencias pasadas y similitudes entre usuarios para ofrecer recomendaciones…
0 notes
ritikay · 2 months ago
Text
Build Your Own QR Code Generator API with Azure Functions
The Azure Function QR Code Generator API is a scalable, cost-effective, and customizable solution for generating dynamic QR codes on demand. Unlike existing third-party APIs, this approach enables businesses to create their own API, ensuring greater flexibility, security, and ease of access. 
Key Features of Azure Function QR Code Generator API: 
✅ Dynamic QR Code Generation – Instantly generate QR codes for URLs, text, or other content as per user input.  ✅ Customization Options – Modify size, color, and error correction levels to match your specific needs.  ✅ RESTful API – Seamlessly integrate the API with various programming languages and platforms.  ✅ Scalable & Reliable – Built on Azure Functions, it scales automatically to meet demand, ensuring high availability.  ✅ Cost-Effective – Uses a pay-as-you-go model, reducing unnecessary expenses. 
How It Works: 
1️⃣ API Request – Users send an HTTP request with the required content and customization parameters.  2️⃣ Function Execution – The Azure Function processes the request and dynamically generates the QR code.  3️⃣ QR Code Generation – A QR code generation library creates the image in real-time.  4️⃣ Response – The API returns the QR code image in formats like PNG or SVG for easy access. 
Use Cases: 
🚀 Marketing Campaigns – Use QR codes on flyers, posters, and ads to drive traffic to websites or promotions.  📦 Asset Tracking – Efficiently manage inventory and product tracking.  🎟 Event Management – Simplify event check-ins and attendee tracking with QR-based tickets.  🔐 Authentication & Access Control – Implement two-factor authentication and secure login systems. 
0 notes
freebiesms · 2 months ago
Text
Farewell #Skype. Here's how their #API worked.
So, with the shutdown of Skype in May 2025, only two months away, there is not much need to hold on tight to our source code for the Skype API. It worked well for us for years on AvatarAPI.com but with the imminent shutdown, their API will undoubtedly stop working as soon as Skype is shut down, and will no longer be relevant, even if the API stays active for a little while later. In this post,…
0 notes
techenthuinsights · 3 months ago
Text
0 notes
rajaniesh · 8 months ago
Text
Mastering Azure Container Apps: From Configuration to Deployment
Thank you for following our Azure Container Apps series! We hope you're gaining valuable insights to scale and secure your applications. Stay tuned for more tips, and feel free to share your thoughts or questions. Together, let's unlock the Azure's Power.
0 notes
vastedge330 · 8 months ago
Text
Azure API Management provides robust tools for securing and scaling your APIs, ensuring reliable performance and protection against threats. This blog post covers best practices for implementing Azure API Management, including authentication methods, rate limiting, and monitoring. Explore how Azure’s features can help you manage your API lifecycle effectively, enhance security protocols, and scale your services to handle increasing traffic. Get practical tips for optimizing your API management strategy with Azure.
0 notes
elbrunoc · 1 year ago
Text
APIs in Action: Unlocking the Potential of APIs in Today's Digital Landscape
Hi! In today’s world, APIs (Application Programming Interfaces) are essential for connecting applications and services, driving digital innovation. But with the rise of hybrid and multi-cloud setups, effective API management becomes essential for ensuring security and efficiency. That’s where APIs in Action, a virtual event dedicated to unlocking the full potential of APIs, comes in.  Join us…
View On WordPress
0 notes
bdccglobal · 1 year ago
Text
Tumblr media
Unlock the power of Azure API Management for your business! Discover why this tool is indispensable for streamlining operations and enhancing customer experiences.
0 notes
govindhtech · 1 year ago
Text
Deep dive into Azure’s DDoS attacks landscape for 2023
Tumblr media
Examining Microsoft Azure’s DDoS attack environment in depth Together with joy and festivities, the 2023 holiday season also brought with it a spike in Distributed Denial-of-Service (DDoS) attacks. The patterns of DDoS attacks this year point to a dynamic and intricate threat environment. These attacks have become increasingly sophisticated and diverse in terms of their tactics and scale, ranging from botnet delivery enabled by misconfigured Docker API endpoints to the appearance of NKAbuse malware that uses blockchain technology to launch denial-of-service attacks.
Azure’s holiday attack landscape for 2023 During the holiday season, Azure monitored the attack landscape and noticed a significant change in some of the attack patterns when compared to the previous year. This modification highlights the persistent attempts by malevolent entities to enhance their methods of posing a threat and try to get around DDoS defenses.
Daily Attack Volume: A maximum of 3,500 attacks per day were automatically mitigated by Azure’s strong security infrastructure. Remarkably, 15%–20% of these incidents were large-scale attacks, defined as those that sent more than one million packets per second (pps).
Geographic origins: Attack origins showed a shift, with 18% coming from the USA and 43% coming from China. Compared to the previous year, when both nations were equally represented as regional sources, this represents a shift.
Protocols for attacks: UDP-based attacks, which accounted for 78% of the attacks during the 2023 holiday season, were primarily directed towards web applications and gaming workloads. These include UDP reflected/amplified attacks, which primarily use quick UDP internet connections (QUIC) for reflection and domain name system (DNS) and simple service discovery protocol (SSDP) in their attacks. Interestingly, QUIC is becoming a more popular attack vector due to reflection or DDoS stressors that sporadically use UDP port 443. The attack patterns during the holiday season this year are very different from those of the previous year, when TCP-based attacks accounted for 65% of all attacks.
Attack that broke all previous records: An astounding UDP attack that peaked at 1.5 terabits per second (Tbps) was directed towards an Asian gaming client. This highly randomized attack, which involved multiple source IP addresses and ports and originated in China, Japan, the USA, and Brazil, was completely neutralized by Azure’s defenses.
Botnet evolution: Over the past year, more and more cybercriminals have used cloud resources- virtual machines in particular for DDoS attacks. Throughout the holiday season, attackers continued to try to take advantage of discounted Azure subscriptions all over the world. Azure tracked compromised account attempts in 39 Azure regions from mid-November 2023 to the end of the year. The main targets of these incidents were the USA and Europe, which accounted for roughly 67% of the total. These threats were successfully neutralized by Azure’s defense mechanisms.
Azure regions where attempts to exploit resources for DDOS attacks occurred. Setting the Threat in Context Global trends are mirrored in Azure’s DDoS attack trends for 2023. As Azure noted earlier in the year, attacks are becoming more politically motivated as a result of geopolitical tensions.
Attackers continue to be drawn to the rise of DDoS-for-hire services, also referred to as “stressor’s” and “booters.” These platforms have democratized the ability to launch potent DDoS attacks, making them affordable for less experienced criminals and easily accessible on forums frequented by cybercriminals. International law enforcement agencies have confirmed that there has been a surge in the availability and use of these services in recent years through operations such as Operation Power OFF, which last May targeted 13 domains linked to DDoS-for-hire platforms. Stressor’s are still in demand despite these efforts because they provide a variety of attack techniques and power, with some being able to launch attacks as fast as 1.5 Tbps.
Cloud power: Defending against the dynamic DDoS attacks The proliferation of large-scale botnets and DDoS-for-hire services presents a serious threat to online services and corporate operations. More cloud computing capacity is required to counter these threats in order to absorb the attack’s initial wave, divert erroneous traffic, and preserve legitimate traffic until patterns can be found. The cloud is our best defense when an attack involves tens of thousands of devices because it has the scale necessary to mitigate the largest attacks. Furthermore, because the cloud is distributed globally, being closer together aids in thwarting attacks that are directed towards the sources.
Providing strong defense to DDoS Attacks It is more important than ever to have strong defenses against DDoS attacks in a time when cyber threats are always changing. This is how Azure’s all-inclusive security solutions are made to protect your online data.
Due to the increased risk of DDoS attacks, a DDoS protection service like Azure DDoS Protection is essential. Real-time telemetry, monitoring, alerts, automatic attack mitigation, adaptive real-time tuning, and always-on traffic monitoring give this service full visibility on DDoS attacks.
Multi-Layered Defense: Use Azure Web Application Firewall (WAF) in conjunction with Azure DDoS Protection to set up a multi-layered defense for complete protection. Layers 3 and 4 of the network are protected by Azure DDoS Protection, and Layer 7 of the application layer is protected by Azure WAF. This combination offers defense against different kinds of DDoS attacks.
Alert Configuration: Without user input, Azure DDoS Protection is able to recognize and stop attacks. You can be informed about the state of public intellectual property resources that are protected by configuring alerts for active mitigations.
2024: Taking action against DDoS attacks The Christmas season of 2023 has brought to light the DDoS attacks’ constant and changing threat to the cyberspace. It is imperative that businesses improve and modify their cybersecurity plans as the new year approaches. This should be a period of learning, with an emphasis on strengthening defenses against DDoS attacks and remaining watchful for emerging strategies. Azure’s ability to withstand these advanced DDoS attacks demonstrates how important it is to have strong and flexible security measures in place to safeguard digital assets and maintain business continuity.
Read more on Govindhtech.com
0 notes
simposaustralia · 1 year ago
Text
0 notes
icssolutions · 2 years ago
Text
Hire Best Azure API Lead Developers in India | ICS
Tumblr media
ICS (Ingenious Corporate Solutions) is an IT consulting company in India that excels in providing business consulting services for various technologies and industries. with a strong focus on delivering innovative and effective solutions, ICS assists organizations in achieving their digital transformation goals and optimizing their IT infrastructure. With a vast network of talented professionals, ICS enables organizations to quickly and flexibly scale their IT teams. Whether there is a need for skilled Microsoft Dynamics CRM consultants, Azure API developers, Power BI experts, or .NET developers, ICS offers a pool of highly qualified candidates available for hire on a contract basis. This allows businesses to access specialized skills and expertise without the long-term commitment and overhead costs associated with traditional hiring processes. https://icsgroup.io/hire-azure-api-lead-developer/
0 notes
freebiesms · 11 months ago
Text
Car License Plate #API support for #Lithuania
Introducing support for Lithuania via our Car License Plate API Are you looking to seamlessly integrate detailed vehicle information into your applications? Welcome to Numerio Zenklai API, Lithuania’s latest and most advanced car license plate API. This service is designed to provide comprehensive vehicle details, enhancing your ability to offer top-tier services in the automotive, insurance,…
Tumblr media
View On WordPress
0 notes
concettolabs · 2 years ago
Text
0 notes
ibarrau · 2 years ago
Text
[SimplePBI][CD] Auto Deploy informes de PowerBi con Azure Devops Pipelines
CI/CD, DataOps, Devops y muchos otros nombres han recorrido las redes para referirse al proceso más continuo y automático de deploy. Hoy luego de tanto tiempo de dos herramientas como Azure Devops y PowerBi existen muchos posts y artículos que nos hablan de esto.
¿Qué diferencia este artículo de otro? que haremos el deploy continuo con SimplePBI (librería de python para usar la PowerBi Rest API) dentro de Azure Devops. Solo prácticas de CD. Luego compartiré pensamientos sobre CI. Para esto nos acompañaremos de un repositorio Git en Azure Devops. 
No se si llamarle algo “Ops” o simplemente CD PowerBi. Asique sin más charla que dar seguí leyendo si te interesa este mix de temas.
Si hay algo de lo que estoy seguro sobre todo esto de Ops, CI o CD es que tiene un origen y base en software que consiste en facilitar la experiencia del desarrollador. Con ese objetivo vamos a mantener la metodología de un post anterior. El desarrollador no necesita saber más nada. Todo lo siguiente lo configuraría un admin o persona que se dedique a “Ops”.
NOTA: Antes de iniciar aclaro que para que funcione la metodología anterior vamos a quitar el “tracking” del archivo y mantener unicamente el lock. Debemos quitarlo puesto que modifica la metadata guardada en gitattributes y le impide a la API de PowerBi importar el informe. Código:  git lfs untrack "Folder/File_name.pbix" 
Proceso
Intentando simular metodologías de desarrollo de software es que vamos a plantear este artículo. Cabe aclarar que funcionaría en tradicionales esquemas que siguen el hilo de “Origenes -> Power Bi Desktop -> Power Bi Service”.  Nuestro enfoque aquí esta centrado en que los desarrolladores no tengan contacto con Power Bi Service. Su herramienta de desarrollo Desktop y Git serían la diaria. De este modo solo deben preocuparse por tomar la última versión desarrollada, efectuar modificaciones bloqueando el archivo y devolverlo al repositorio modificado y desbloqueado.
La responsabilidad del profesional Ops será la de asegurar que esos desarrollos publicados se disponibilicen en el servicio de PowerBi con flujos automáticos. Con este propósito, y aprovechando nuestro repositorio, vamos a utilizar la herramienta de Azure Devops Pipelines. Para tener acceso a los procesamientos paralelos que nos permiten ejecutar el pipeline, será necesario llenar una encuesta especificada en la documentación de Microsoft como nueva política. Forms y doc para más info en el siguiente link: https://learn.microsoft.com/en-us/azure/devops/pipelines/licensing/concurrent-jobs?view=azure-devops&tabs=ms-hosted
Si bien existen muchas formas y procesos de generar deploys automáticos, la que vamos a generar es la siguiente:
Tumblr media
Nos vamos a concentar en importar archivos de PowerBi Desktop ni bien hayan sido pusheados al repositorio. Nuestro enfoque consiste en tener un Pipeline por Área de Trabajo, lo que llevaría a un archivo .yml por area de trabajo. Para mejorar la consistencia de nuestros desarrollos les recomiendo ordenar las carpetas para que coincidan con las areas de trabajo, datasets/reportes o ambientes. Por ejemplo:
Tumblr media
De ese modo podríamos controlar ambientes, shared datasets o simplemente informes con el dataset. Cada quien conoce sus desarrollos para aplicar la complejidad deseada. Vamos a ver el ejemplo con un solo ambiente que tiene informes en areas de trabajo sin separación de shared datasets.
Configuración
Para iniciarnos en este camino abrimos dev.azure.com y creamos un proyecto. El proyecto trae muchos componentes. De momento a nosotros nos interesan dos. Repos y Pipelines. Asumiendo que saben de lo que hablo y ya tienen un repositorio en esta tecnología o Github, procedemos a crear el pipeline eligiendo el repo:
Tumblr media
Luego nos preguntará si tenemos una acción concreta de creación incial para nuestro archivo yaml (archivos de configuración de pipelines que orientan el proceso). Podemos elegir iniciar en blanco e ir completando o descarguen el código que veremos en el artículo, ponganlo en el repositorio y creen el pipeline a partir de un archivo existente
Tumblr media
Ahora si tendremos nuestro archivo yml en el repositorio listo para modificarlo. Veamos como hacemos la configuración.
Tumblr media
Enlace de github del archivo.
Nuestro pequeño pipeline cuenta con una serie de pasos.
Trigger
Variables
Pool
Steps
NOTA: Estos son un mínimo viable para correr una automatización. Si desean leer más y conocer mayor profundidad puede adentrarse en la documentación de microsoft: https://learn.microsoft.com/es-es/azure/devops/pipelines/yaml-schema/?view=azure-pipelines
Trigger nos mencionará en que parte del repositorio y sobre que branch tiene que prestar atención. En nuestro caso dijimos cualquier branch del path con carpeta “Workspace_Name” y al modificar cualquier archivo PBIX de dicha carpeta. Eso significa que al realizar un commit y push de un archivo de Power Bi Desktop dentro de esa carpeta, se ejecutará el pipeline.
Variables nos permite definir un texto que podremos reutilizar más adelante. En este caso el path de la carpeta. Si bien es una sola carpeta, la práctica de la variable puede ser útil si queremos usar paths más largos. IMPORTANTE: los nombres de carpetas en la variable path no pueden contener espacios dado que la captura de python posterior los reconoce como argumentos separados. Recomiendo usar “_” en lugar de espacios.
Pool viene por defecto y es el trasfondo que correrá el pipeline. Recomiendo dejarlo en ubuntu-latest.
Steps aquí estan los pasos ejecutables de nuestro pipeline. La plataforma nos permite ayudarnos a escribir esta parte cuando elegimos basarnos de la ayuda del wizard. En este caso podemos basarnos en lo que proveemos en ladataweb. Hablemos más de estos pasos.
Detalle de Steps
Primero haremos la instalación de la librería de Python que nos permite utilizar la Power Bi Rest API de manera sencilla en el paso Script.
El paso powershell puesto que nos permite jugar con una consola directa sobre el repositorio. Aqui aprovecharemos para ejecutar un comando git que nos informe cuales fueron los últimos archivos afectados entre el commit anteriores y el actual. Tengamos en cuenta que para poder realizar esta comparación necesitamos cambiar el shallow fetch de nuestro repositorio. Esto significa la memoria de cambio reciente que normalmente viene resguardando 1 commit “más reciente”. Para realizar este cambio necesitamos guardar el pipeline. Luego lo editamos nuevamente y nos dirigimos a triggers:
Tumblr media
Una vez allí en la pestaña Yaml podremos encontrar la siguiente opción que igualaremos a 3 como el mínimo necesario para la comparativa.
Tumblr media
Esta operación también se puede realizar con un Bach de Git local, pero este modo me parece más simple y visual. Para más información pueden leer aqui: https://learn.microsoft.com/es-es/azure/devops/pipelines/repos/azure-repos-git?view=azure-devops&tabs=yaml#shallow-fetch
El paso bash es simplemente para mostrarnos en la consola los archivos que reconoció el script y estan listos para pasar entre pasos.
El paso crítico es Task que llamará a un python script. Para ser más ordenado vamos a llamar a un archivo en el repositorio que nos permita leer un código que cambie con unos parámetros que envía el pipeline para no estar reescribiendolo en cada pipeline de cada workspace/carpeta. Aqui completamos que en script source del file path definido podemos encontrar el script path hasta el archivo puntual que usuará los siguientes tres argumentos. La lista de argumentos refiere al path de los archivos pbix, el id del workspace en donde publicaremos y los archivos que se modificaron según el último commit. Cierra definiendo unas variables de entorno para garantizar la seguridad del script evitando la exposición de la autenticación de la API. En el menú superior derecho veremos la posibilidad de agregar variables:
Tumblr media
Sugiero mantener oculto el secret del cliente y visible el id del cliente. Visible este segundo para reconocer con que App Registrada de Azure AD nos estamos conectado a usar la Power Bi Rest API.
Ya definido nuestro Pipeline creemos el script de python que hará la operación de publicar el archivo. En nuestro script lo dejé en la Raíz del repositorio $(System.DefaultWorkingDirectory)/Deploy-PbiReport.py para reutilizarlo en los pipelines de las carpetas/workspaces. Veamos el script
Tumblr media
Enlace de github del archivo.
Primero importaremos simplepbi y otras dos librerías. OS para reconocer las variables del entorno y SYS para recibir argumentos.
Iniciarmos recibiendo los argumentos de pipeline con sys.argv en el orden correspondiente. Como la recepción de python lee los argumentos separados por espacios como distintos, vamos a asumir que el parámetro 3 o más se unan separados por espacios (puesto que llegaron como argumentos separados. Luego tomamos la lista de archivos en cadena de texto para construir una lista de python que nos permita recorrerla. En este proceso aprovecharemos para quitar archivos modificados en el commit que no pertenezcan a la carpeta/workspace deseada y sean de extensión “.pbix”. Leemos las variables de entorno para loguear nuestro Power Bi Rest API y todo lo siguiente es mágia de SimplePBI. Pedimos el token para nuestra operaciones, hacemos un for de archivos a importar y realizamos la importación con cuidados de capturas de excepciones y condiciones. Todos los prints nos ayudarán a ver los mensajes al termino de la ejecución para reconocer alguna eventualidad. Esto apunta a no cortar si uno de los archivos falla en publicar no corte al resto. Sino que seguirá y al finalizar podremos lanzar la excepción para que falle el pipeline general a pesar que tal vez corrieran 4/5. Por supuesto que esta decisión podría cambiarse a que si uno falla ninguno continue, o que siga pero al final lanzar una excepción 
NOTA: Claro que si es la primera vez que colocamos el archivo.pbix en el repositorio no bastará solo con la importación automática. Será necesario ir a ingresar las credenciales para las actualizaciones manualmente. De momento eso no es posible hacerlo automáticamente.
Para ejecutar la prueba solo bastaría con modificar un archivo .pbix dentro de la carpeta del repo, commit y push. Ese debería ejecutar la acción y publicar el archivo.
De ese modo el desarrollador solo se enfoca en desarrollar con Power Bi Desktop de manera apropiada contra un repositorio y nada más. Un profesional Ops y Administrador serían quienes tendrían licencias PRO que administren el entorno de Áreas de trabajo, apps y distribución de audiencias y permisos.
Demo final commiteando con visual studio code:
Tumblr media
Conclusión
Estas posibilidades llevan no solo a buenas prácticas en desarrollo sino también a mantener una linea de desarrolladores que no necesitarían licencias pro a menos que querramos que tengan más responsabilidades en el servicio.
Todo este ejemplo puede expandirse mucho más. Podríamos desarrollar los informes con Parametros para apuntar a distintas bases de datos y tener ambientes de desarrollo. Los desarrolladores no cambiarían más que agregar parametros y tal vez tener otro branch o repositorio. Los profesionales Ops podrían incorporar en el script de importación el cambio del parámetro en service. Incluso podrían efectuarse prácticas de CI moviendo automáticamente versiones estables de un repo a otro. Hablar de CI no me gusta porque no podemos hacer build ni correr tests, pero dejen volar su imaginación. Cada día las prácticas de desarrollo son más posibles y cercanas en proyectos de datos.
En ese archivo python podríamos usar todo el poder de SimplePBI para ajustar nuestro escenario a la práctica Ops deseada.
0 notes