Tumgik
#geminipro
ai-tech9 · 2 months
Text
Best AI Tools You Should Know💯
🚀 Ready to elevate your tech game? Discover the ultimate list of Best AI Tools You Should Know! 🤖✨
From cutting-edge innovations to game-changing applications, this article breaks down the top AI tools that can transform your productivity and spark new ideas. Whether you're a tech enthusiast, a business leader, or just curious about the future of AI, you won't want to miss this!
🔍 What You'll Learn:
Essential AI tools for various industries
How these tools can boost your efficiency
Real-world applications and success stories
Don't get left behind in the AI revolution. Dive into our comprehensive guide and stay ahead of the curve!
👇 Read now
https://www.alkoptantech.com/2024/06/top-five-ai-tools-you-should-know-about.html
AITools #TechTrends #Innovation #Productivity #FutureOfAI
3 notes · View notes
livenserv · 7 months
Text
How many Gemini models are there? Which one is free to use?
Tumblr media
There are currently two publicly available versions of Gemini:
Gemini 1.0 Pro: This is the free-to-use version, well-suited for basic tasks like question answering and text summarization.
Gemini Advanced: This requires a Google One AI subscription and offers more capabilities for complex and creative tasks like code generation and translation.
A quick look into the technical differences between Gemini Pro and Advanced.
Gemini 1.0 Pro
Model: 1.0 Pro
Access: Free
Strengths: Factual language understanding, reasoning, summarization
Context window: Smaller
Pricing: Free
Gemini Advanced
Model: Ultra 1.0
Access: Google One AI subscription required
Strengths: Complex tasks, creative text formats, code generation, translation
Context window: Larger
Pricing: $29/month (as part of Google One AI plan)
Understanding Google AI models, their strengths and pricing.
Gemini: Choosing the Right Language Model for Your Needs
Language models are becoming increasingly popular, and with good reason. They can generate text, translate languages, write different kinds of creative content, and answer your questions in an informative way. But with so many models on the market, it can be tough to decide which one is right for you.
In this blog, we’ll take a look at two of Google AI’s language models, Gemini 1.0 Pro and Gemini Advanced, and discuss their strengths and weaknesses to help you make an informed decision.
Gemini 1.0 Pro: The Free and Friendly Option
Gemini 1.0 Pro is a great choice for anyone looking for a free and easy-to-use language model. It excels at understanding factual language, reasoning, and summarizing text. If you need a model to answer your questions in a comprehensive and informative way, or to provide summaries of complex topics, Gemini 1.0 Pro is a solid option.
However, it’s important to remember that Gemini 1.0 Pro is not as powerful as its more advanced counterpart. It may struggle with complex tasks like code generation, writing different kinds of creative text formats, and translating languages. Additionally, its context window is smaller, meaning it can’t remember information from previous interactions as well.
Gemini Advanced: Unleashing the Power of AI
If you need a language model for more complex tasks, Gemini Advanced is the way to go. It’s significantly more powerful than Gemini 1.0 Pro and can handle tasks like code generation, translation, and writing different creative text formats with ease. Its larger context window also allows it to remember more information from previous interactions, making it more adept at understanding complex conversations.
However, Gemini Advanced does come with a price tag. It requires a Google One AI subscription, which can be a barrier for some users. Additionally, its increased power and complexity can make it less user-friendly than Gemini 1.0 Pro.
So, Which Model is Right for You?
The best language model for you depends on your specific needs and preferences. If you’re looking for a free and easy-to-use option for basic tasks, Gemini 1.0 Pro is a great choice. But if you need a more powerful model for complex tasks.
We suggest you start with the free version and if you think the speed and capacity of the free version is not enough, then go for an upgrade.
2 notes · View notes
trillionstech-ai · 2 months
Text
instagram
Google Gemini 1.5 Pro Tops the Charts!
Google's Gemini 1.5 Pro has surpassed OpenAI's GPT-4o and Anthropic’s Claude-3.5 Sonnet to claim the
1 spot on the LMSYS Chatbot Arena leaderboard. With an ELO score of 1300, Gemini 1.5 Pro excels in multi-lingual processing, technical tasks, and multimodal inputs. This significant achievement marks a new milestone in AI, highlighting the need for ethical considerations as these models evolve rapidly.
The competition in the LLM landscape is heating up, with major players pushing the boundaries of what's possible. . . .
For more AI related updates, follow @trillionstech.ai
0 notes
govindhtech · 3 months
Text
Cloud Virtual CISO: 3 Intriguing AI Cybersecurity Use Cases
Tumblr media
Cloud Virtual CISO Three intriguing AI cybersecurity use cases from a Cloud Virtual CISO intriguing cybersecurity AI use cases
For years, They’ve believed artificial intelligence might transform cybersecurity and help defenders. According to Google Cloud, AI can speed up defences by automating processes that formerly required security experts to labour.
While full automation is still a long way off, AI in cybersecurity is already providing assisting skills. Today’s security operations teams can benefit from malware analysis, summarization, and natural-language searches, and AI can speed up patching.
AI malware analysis Attackers have created new malware varieties at an astonishing rate, despite malware being one of the oldest threats. Defenders and malware analyzers have more varieties, which increases their responsibilities. Automation helps here.
Their Gemini 1.5 Pro was tested for malware analysis. They gave a simple query and code to analyse and requested it to identify dangerous files. It was also required to list compromising symptoms and activities.
Gemini 1.5 Pro’s 1 million token context window allowed it to parse malware code in a single pass and normally in 30 to 40 seconds, unlike previous foundation models that performed less accurately. Decompiled WannaCry malware code was one of the samples They tested Gemini 1.5 Pro on. The model identified the killswitch in 34 seconds in one pass.
They tested decompiled and disassembled code with Gemini 1.5 Pro on multiple malware files. Always correct, it created human-readable summaries.
The experiment report by Google and Mandiant experts stated that Gemini 1.5 Pro was able to accurately identify code that was obtaining zero detections on VirusTotal. As They improve defence outcomes, Gemini 1.5 Pro will allow a 2 million token context frame to transform malware analysis at scale.
Boosting SecOps with AI Security operations teams use a lot of manual labour. They can utilise AI to reduce that labour, train new team members faster, and speed up process-intensive operations like threat intelligence analysis and case investigation noise summarising. Modelling security nuances is also necessary. Their security-focused AI API, SecLM, integrates models, business logic, retrieval, and grounding into a holistic solution. It accesses Google DeepMind’s cutting-edge AI and threat intelligence and security data.
Onboarding new team members is one of AI’s greatest SecOps benefits. Artificial intelligence can construct reliable search queries instead of memorising proprietary SecOps platform query languages.
Natural language inquiries using Gemini in Security Operations are helping Pfizer and Fiserv onboard new team members faster, assist analysts locate answers faster, and increase security operations programme efficiency.
Additionally, AI-generated summaries can save time by integrating threat research and explaining difficult facts in natural language. The director of information security at a leading multinational professional services organisation told Google Cloud that Gemini Threat Intelligence AI summaries can help write an overview of the threat actor, including relevant and associated entities and targeted regions.
The customer remarked the information flows well and helps us obtain intelligence quickly. Investigation summaries can be generated by AI. As security operations centre teams manage more data, they must detect, validate, and respond to events faster. Teams can locate high-risk signals and act with natural-language searches and investigation summaries.
Security solution scaling with AI In January, Google’s Machine Learning for Security team published a free, open-source fuzzing platform to help researchers and developers improve vulnerability-finding. The team told AI foundation models to write project-specific code to boost fuzzing coverage and uncover additional vulnerabilities. This was added to OSS-Fuzz, a free service that runs open-source fuzzers and privately alerts developers of vulnerabilities.
Success in the experiment: With AI-generated, extended fuzzing coverage, OSS-Fuzz covered over 300 projects and uncovered new vulnerabilities in two projects that had been fuzzed for years.
The team noted, “Without the completely LLM-generated code, these two vulnerabilities could have remained undiscovered and unfixed indefinitely.” They patched vulnerabilities with AI. An automated pipeline for foundation models to analyse software for vulnerabilities, develop patches, and test them before picking the best candidates for human review was created.
The potential for AI to find and patch vulnerabilities is expanding. By stacking tiny advances, well-crafted AI solutions can revolutionise security and boost productivity. They think AI foundation models should be regulated by Their Secure AI Framework or a similar risk-management foundation to maximise effect and minimise risk.
Please contact Ask Office of the CISO or attend Their security leader events to learn more. Attend Their June 26 Security Talks event to learn more about Their AI-powered security product vision.
Perhaps you missed it Recent Google Cloud Security Talks on AI and cybersecurity: Google Cloud and Google security professionals will provide insights, best practices, and concrete ways to improve your security on June 26.
Quick decision-making: How AI improves OODA loop cybersecurity: The OODA loop, employed in boardrooms, helps executives make better, faster decisions. AI enhances OODA loops.
Google rated a Leader in Q2 2024 Forrester Wave: Cybersecurity Incident Response Services Report.
From always on to on demand access with Privileged Access Manager: They are pleased to introduce Google Cloud’s built-in Privileged Access Manager to reduce the dangers of excessive privileges and elevated access misuse.
A FedRAMP high compliant network with Assured Workloads: Delivering FedRAMP High-compliant network design securely.
Google Sovereign Cloud gives European clients choice today: Customer, local sovereign partner, government, and regulator collaboration has developed at Google Sovereign Cloud.
Threat Intel news A financially motivated threat operation targets Snowflake customer database instances for data theft and extortion, according to Mandiant.
Brazilian cyber hazards to people and businesses: Threat actors from various reasons will seek opportunities to exploit Brazil’s digital infrastructure, which Brazilians use in all sectors of society, as its economic and geopolitical role grows.
Gold-phishing: Paris 2024 Olympics cyberthreats: The Paris Olympics are at high risk of cyber espionage, disruptive and destructive operations, financially driven behaviour, hacktivism, and information operations, according to Mandiant.Return of ransomware Compared to 2022, data leak site posts and Mandiant-led ransomware investigations increased in 2023.
Read more on Govindhtech.com
0 notes
pinatafarm · 6 months
Text
Cách sử dụng Gemini AI của google tại Việt Nam
Tumblr media
Google đã phát hành một mô hình trí tuệ nhân tạo (AI) mới gọi là Gemini (Google Gemini AI), được cho là tốt hơn các mô hình AI khác về khả năng hiểu, tóm tắt, suy luận, lập trình và lập kế hoạch. Gemini có ba phiên bản: Pro, Ultra và Nano. Phiên bản Pro đã có sẵn, và phiên bản Ultra được phát hành vào đầu năm 2024. Xem thêm: - Tự tạo video chỉ với vài dòng text, trải nghiệm sức mạnh của Sora - Gemini AI là gì? Khám phá tiềm năng Chatbot mới của Google - Galaxy AI làm được những gì? Bùng nổ kỷ nguyên điện thoại AI - Làm chủ Prompt AI và nghệ thuật giao tiếp với AI
Gemini đã được tích hợp vào chatbot Bard của Google
Google đã tích hợp Gemini Pro với chatbot Bard của mình, đối thủ cạnh tranh trực tiếp của ChatGPT. Người dùng có thể tương tác bằng văn bản với Bard được hỗ trợ bởi Gemini. Google đã cam kết sẽ hỗ trợ các phương thức tích hợp khác sớm. Bản cập nhật mới có sẵn ở 170 quốc gia và vùng lãnh thổ nhưng giới hạn ở tiếng Anh. Hiện tại có hai cách để sử dụng Google Gemini AI: - Bard Chatbot: Gemini AI phiên bản Pro hiện được tích hợp sẵn vào chatbot Bard . Để sử dụng Gemini AI trong Bard, chỉ cần truy cập trang web Bard và đăng nhập bằng tài khoản Google của bạn. - Pixel 8 Pro: Gemini AI bản Nano cũng có sẵn trên điện thoại thông minh Pixel 8 Pro. Để sử dụng Gemini AI trên Pixel 8 Pro, chỉ cần bật tính năng "Trả lời văn bản được gợi ý bởi AI" trong cài đặt WhatsApp. Người dùng ở Việt Nam cũng đang nhận được bản cập nhật mới. Bạn có thể truy cập sử dụng các tính năng của Gemini qua chatbot Google Bard tại https://gemini.google.com
5 cách để khai thác Gemini AI tốt nhất phục vụ công việc
Google gần đây đã ra mắt Gemini Advanced, phiên bản mạnh mẽ nhất của công cụ thay thế ChatGPT này. Phiên bản mới và được cải tiến này hỗ trợ 40 ngôn ngữ và miễn phí trong 2 tháng. Dưới đây là 5 cách bạn có thể sử dụng nó để phục vụ công việc: 1. Tạo Hình ảnh: Tạo hình ảnh chân thực chỉ bằng các mô tả văn bản. 2. Soạn Thư điện tử và Tài liệu: Bạn có thể dễ dàng soạn thư điện tử, tạo tài liệu và thêm ngữ cảnh hoặc thông tin bổ sung ngay trong Gmail và Google Docs. 3. Trò chuyện bằng giọng nói: Bạn có thể nhấn nút micrô để bật micrô và trò chuyện với Gemini. 4. Tiện ích: Bật các tiện ích mở rộng như YouTube, Drive và Maps để nhận được phản hồi tốt hơn. 5. Lập trình: Bạn có thể yêu cầu Gemini viết, giải thích và gỡ lỗi bất kỳ đoạn mã lập trình nào bạn muốn. Xem thêm tính năng Gemini cho Google Workspace và Google Cloud tại đây: Cách làm chủ Gemini AI: từng bước cài đặt chi tiết
Cách sử dụng Google Gemini trên Pixel 8 Pro
Nếu bạn đang sở hữu chiếc Google Pixel 8 Pro, bạn cũng có thể sử dụng Gemini trên thiết bị của mình mà không cần kết nối Internet. Dòng iện thoại này của Google hỗ trợ sẵn Gemini Nano, phiên bản rút gọn của Gemini mà thiết bị có thể chạy ngay cả khi ngoại tuyến. Gemini Nano tích hợp trong tính năng cao: Trả lời thông minh và Ghi âm. Trả lời thông minh là tính năng gợi ý điều tiếp theo cần nói trong ứng dụng nhắn tin. Trên Pixel 8 Pro, tính năng này được cung cấp bởi Gemini Nano, giúp tạo ra phản hồi tự nhiên và phù hợp hơn trước kia. Để sử dụng tính năng Trả lời thông minh, bạn cần bật AiCore trong Tùy chọn nhà phát triển, sau đó mở WhatsApp để trải nghiệm. Bạn có thể bật tính năng này bằng cách chuyển đến Cài đặt > Tùy chọn nhà phát triển > Cài đặt AiCore > Bật Aicore Persistent .
Tumblr media
(Hình ảnh: Google) Khi tính năng này được bật, bạn sẽ thấy các đề xuất Trả lời thông minh được hỗ trợ bởi Gemini trong dải đề xuất của bàn phím Gboard. Hiện tại, tính năng này mới hỗ trợ cho tiếng Anh Mỹ trong WhatsApp, Google có kế hoạch mở rộng hỗ trợ cho nhiều ứng dụng và khu vực hơn trong năm tới. Vị trí thứ hai mà bạn có thể sử dụng tốt khả năng của Gemini là ứng dụng Máy ghi âm . Với hỗ trợ của Gemini, giờ đây bạn có thể tạo bản tóm tắt của một cuộc họp đầy đủ chỉ bằng một cú nhấp chuột, cung cấp cho bạn cái nhìn tổng quan nhanh chóng về các điểm chính và điểm nổi bật. Để sử dụng tính năng này, bạn chỉ cần mở ứng dụng và bắt đầu ghi âm. Sau đó, bạn có thể nhấn vào nút tóm tắt để xem bản tóm tắt âm thanh do Gemini Nano tạo ra.
Lịch sử phát hành của Bard AI
Bard AI lần đầu tiên được phát hành dưới dạng phiên bản beta vào ngày 18 tháng 12 năm 2022. Phiên bản beta này chỉ cho phép sử dụng bởi các nhà nghiên cứu và học giả được chọn. Phiên bản chính thức của Bard AI được phát hành vào ngày 1 tháng 7 năm 2023. Lịch sử phát hành của Bard AI theo từng giai đoạn: - Giai đoạn 1 (2022): Phát triển và thử nghiệm Trong giai đoạn này, Bard AI được phát triển và thử nghiệm bởi một nhóm các nhà khoa học và kỹ sư tại Google AI. Nhóm nghiên cứu đã sử dụng một tập dữ liệu khổng lồ gồm văn bản và mã để đào tạo Bard AI. - Giai đoạn 2 (2022-2023): Phát hành beta Trong giai đoạn này, Bard AI được phát hành dưới dạng phiên bản beta cho các nhà nghiên cứu và học giả được chọn. Phiên bản beta này được sử dụng để thu thập phản hồi từ người dùng và cải thiện hiệu suất của Bard AI. - Giai đoạn 3 (2023-nay): Phát hành chính thức Trong giai đoạn này, Bard AI được phát hành dưới dạng phiên bản chính thức cho tất cả mọi người sử dụng. Phiên bản chính thức này có sẵn trên nhiều nền tảng khác nhau, bao gồm web, ứng dụng di động và các sản phẩm của Google. Từ tháng 12/2023 Google tích hợp mô hình Gemini Ai Pro vào Bard AI.
Tumblr media
Google tuyên bố Gemini là mô hình AI mạnh mẽ nhất thế giới
Google tuyên bố Gemini là mô hình AI mạnh mẽ nhất thế giới. Một trong những khác biệt lớn nhất so với các mô hình AI phổ biến khác là Gemini được xây dựng như một công cụ đa phương thức từ đầu. Google đã chia sẻ một số bản demo của mô hình AI mới này, cho phép có thể dễ dàng tương tác qua nhiều phương tiện như văn bản, âm thanh, video. Nó cũng có thể kết hợp các phương thức này để làm cho tương tác trở nên giống người hơn.
Gemini đã xuất sắc vượt trội qua nhiều bài kiểm tra AI
Google đã thử nghiệm mô hình AI mới của mình, Gemini, trên nhiều mô hình kiểm thử. Gemini Ultra, phiên bản tiên tiến nhất của Gemini, đã đạt kết quả tốt hơn kết quả tốt nhất hiện tại trên 30/32 bài kiểm tra học thuật phổ biến được sử dụng trong nghiên cứu và phát triển AI. Gemini Ultra đạt 90,0% điểm trong một bài kiểm tra gọi là MMLU (nhận thức ngôn ngữ đa nhiệm lớn). Bài kiểm tra này sử dụng 57 chủ đề như toán học, vật lý, lịch sử, luật pháp, y học và đạo đức để kiểm tra cả kiến thức và khả năng giải quyết vấn đề. Đây là lần đầu tiên một mô hình AI đạt điểm cao hơn các chuyên gia con người trên bài kiểm tra này.
Gemini có khả năng hỗ trợ lập trình mạnh mẽ
Phiên bản đầu tiên của Gemini có thể hiểu, giải thích và tạo mã code chất lượng cao trong các ngôn ngữ lập trình phổ biến như Python, Java, C++, và Go. Google tuyên bố rằng điều này khiến nó trở thành một trong những mô hình AI tốt nhất cho việc lập trình trên thế giới. Gemini Ultra đã rất xuất sắc trong một số bài kiểm tra lập trình tự động trong đó có HumanEval, một tiêu chuẩn công nghiệp quan trọng để kiểm tra hiệu suất trên các tác vụ lập trình, và Natural2Code, một chuẩn kiểm tra việc lập trình do người hay tổng hợp từ nguồn sẵn.
Gemini có thể được sử dụng để cung cấp đầu vào cho các hệ thống lập trình tiên tiến hơn
Hai năm trước, Google đã trình bày AlphaCode, hệ thống AI đầu tiên để tạo mã có thể cạnh tranh trong các cuộc thi lập trình. Sử dụng phiên bản đặc biệt của Gemini, Google đã tạo ra một hệ thống coding tiên tiến hơn, AlphaCode 2. Hệ thống này rất tốt trong việc giải quyết các vấn đề hot trong lập trình liên quan đến toán học phức tạp và khoa học máy tính lý thuyết.
Câu hỏi thường gặp (FAQs) về Gemini AI:
Google Gemini là gì?Gemini là mô hình AI tiên tiến nhất của Google, có thể hiểu và tích hợp nhiều loại thông tin như văn bản, mã, âm thanh, hình ảnh và video. Nó đại diện cho một bước nhảy đáng kể về khả năng AI.Gemini khác với các mô hình AI trước đây như thế nào?Gemini độc đáo với khả năng đa phương thức gốc của nó, có thể xử lý các loại dữ liệu khác nhau ngay từ đầu, nâng cao hiệu quả và hiệu quả trong việc xử lý các tác vụ phức tạp.Có những phiên bản Gemini nào khác nhau?Gemini có ba phiên bản: Ultra cho các tác vụ phức tạp, Pro cho nhiều tác vụ và Nano cho hoạt động hiệu quả trên thiết bị.Điều gì khiến Gemini Ultra trở nên đặc biệt?Gemini Ultra đã vượt qua các chuyên gia con người về hiểu ngôn ngữ đa nhiệm và xuất sắc trong các điểm đánh giá chuẩn lập trình, cho thấy hiệu suất vượt trội trong các tác vụ đa dạng. Gemini đóng góp như thế nào và cho các lĩnh vực gì?Khả năng suy luận đa phương thức tiên tiến của Gemini có thể dẫn đến những đột phá trong các lĩnh vực như khoa học và tài chính bằng cách phân tích và hiểu thông tin phức tạp.Có những biện pháp an toàn nào được áp dụng cho Gemini không?Gemini đã trải qua các đánh giá an toàn toàn diện, bao gồm đánh giá độ lệch và độc tính, và tuân thủ các Nguyên tắc AI của Google về phát triển AI có trách nhiệm.Gemini được t��ch hợp vào các sản phẩm Google như thế nào?Gemini đang được triển khai trong các sản phẩm Google như Bard, các tính năng nâng cao mở rộng trên Pixel 8 Pro (Gemini Nano) và sẽ sớm mở rộng và tích hợp vào nhiều nền tảng dịch vụ như Tìm kiếm và Chrome.Khả năng mở rộng của Gemini là gì?Gemini được thiết kế để chạy hiệu quả trên nhiều nền tảng, từ trung tâm dữ liệu đến thiết bị di động, điều đó cho phép khả năng mở rộng và thích ứng nhanh với nhiều hệ sinh tháiCác tính năng chính của Gemini là gì?Gemini xuất sắc trong việc hiểu và tạo mã code lập trình, suy luận đa phương thức và vượt qua các điểm chuẩn về hiểu ngôn ngữ, cho thấy khả năng đa dạng của nó.Hiệu suất của Gemini đối với các tác vụ lập trình như thế nào?Gemini đã thể hiện hiệu suất rất cao trong việc tạo ra code lập trình theo tiêu chuẩn và chất lượng cao bằng các ngôn ngữ lập trình phổ biến như Python và Java. Read the full article
0 notes
techxoner · 8 months
Text
Embark on a linguistic adventure with Bard! Explore how Gemini Pro's global access and image generation empower you to create, learn, and express like never before. Discover exciting details, possibilities, and more!
0 notes
scambitcoin · 1 year
Text
GeminiPro Review
Beware of GeminiPro Scams, a dubious entity operating in the financial industry. This suspicious scam broker raises red flags. To delve deeper into the details, read GeminiPro review here. Protect your investments and stay informed to avoid falling victim to potential fraud.
0 notes
nanjvip · 7 years
Text
【悲報】ワイ、中華スマホが欲しすぎて泣く…
1: 2017/07/03(月) 11:26:51.46 ID:nNhaDPV80livip ulefone Gemini Pro MediaTek Helio X27 Decacore (2.6GHz) RAM 4GB / ROM 64GB 5.5in 1920×1080 IPS 2.5D 13MP Chromatic + 13MP Monochrome Camera NanoSIM+NanoSIMorMicroSD 4G+3G DSDS http://ulefone.com/images/gemini-pro/geminipro-presale/gemini-pro-banner-l.png 2: 2017/07/03(月) 11:27:18.91 ID:SitaAy6/M でもお高いんでしょう? 3: 2017/07/03(月) 11:27:43.55 ID:yK5L1I7mr…
View On WordPress
0 notes
ai-tech9 · 3 months
Text
How to use the Robots.txt file to block AI-powered crawlers
3 notes · View notes
govindhtech · 5 months
Text
How Gemini Model and Workflows Can Summarize Anything
Tumblr media
Gemini Model Planes
Given that generative AI is currently a hot topic among developers and business stakeholders, it’s critical to investigate the ways in which server less execution engines such as Google Cloud’s Workflows can automate and coordinate large language model (LLM) use cases. They recently discussed using workflows to orchestrate Vertex AI’s PaLM and Gemini APIs. In this blog post, they demonstrate a specific use case with broad applicability long-document summarization that Workflows can accomplish.
Gemini Large Language Model
To execute complex tasks like document summarising, open-source LLM orchestration frameworks such as LangChain (for Python and TypeScript developers) or LangChain4j (for Java developers) integrate different components including LLMs, document loaders, and vector databases. For this reason, Workflows can likewise be used without requiring a large time investment in an LLM orchestration system.
Techniques for Summarising
Summarising a brief document is as simple as typing its content in its entirety as a prompt into the context window of an LLM. On the other hand, large language model prompts are typically token-count constrained. Extended documents necessitate an other methodology. There are two typical methods:
Map/reduce
To make a lengthy document fit the context window, it is divided into smaller portions. A summary is written for every segment, and as a last step, a summary of all the summaries is written.
Iterative improvement
google cloud assess the document individually, much like the map/reduce method. The first section is summarised, and the LLM iteratively refines it with information from the next section, and so on, all the way to the end of the document.
Both approaches produce excellent outcomes. The map/reduce strategy does, however, have one benefit over the refining technique. Refinement is a progressive process in which the previously refined summary is used to summarise the next section of the document.
You can use map/reduce to construct a summary for each segment in parallel (the “map” operation) and a final summary in the last phase (the “reduce” action), as shown in the picture below. Compared to the sequential method, this is faster.Image to credit google cloud
Google Gemini Models
In an earlier post, they demonstrated how to use Workflows to invoke PaLM and Gemini models and emphasised one of its primary features: concurrent step execution. This function allows us to concurrently produce summaries of the lengthy document parts.
When a new text document is added to a Cloud Storage bucket, the workflow is started.
The text file is divided into “chunks” that are successively summarised.
The smaller summaries are all gathered together and combined into a single summary in the last step of summarising.
Thanks to a subworkflow, all calls to the Gemini 1.0 Pro model are made.
Obtaining the text file and concurrently summarising the relevant portions (“map” component)
A few constants and data structures are prepared in the assign file vars phase. Here, google cloud set the chunk size to 64,000 characters so that the text would fit in the LLM’s context window and adhere to Workflow’s memory constraints. In addition, there are variables for the summaries’ lists and one for the final summary.
The dump file content sub-step loads each section of the document from Cloud Storage before the loop over chunks step removes each text chunk in parallel. The subworkflow in generate chunk summary, which summarises that portion of the document, is then invoked using the Gemini model. The current summary is finally saved in the summaries array.
An overview of summaries (the “reduce” portion)
With all of the chunk summaries now in hand, they can combine the smaller summaries into a final summary of summaries, or aggregate summary as you may call it:They concatenate each chunk summary in concat summaries. To obtain the final summary, they make one final call to google cloud Gemini model summarization subworkflow in the reduce summary phase. They also return the results, including the final summary and the chunk summaries, in return result.
Asking for summaries from the Gemini model
Google cloud “map” and “reduce” procedures both invoke a subworkflow that uses Gemini models to capture the call. Let’s examine this last step of their process in more detail: They set up a few variables for the desired LLM configuration (in this case, Gemini Pro) in init.
They perform an HTTP POST request to the model’s REST API in the call gemini phase. Take note of how merely providing the OAuth2 authentication technique allows us to declaratively authenticate to this API. They pass the prompt for a summary, certain model parameters (like temperature) and the maximum length of the summary to be generated in the body.
The ensuing synopsis
The process is started and completed by saving the text of Jane Austen’s “Pride and Prejudice” into a Cloud Storage bucket. This produces the following preliminary and comprehensive summaries:
Gemini Models
Although they kept the workflow straightforward for the sake of this article, there are a number of ways it might be made even better. For instance, they hard-coded the total character count for each section’s summary, but it could be a process parameter or even calculated based on how long the context-window limit of the model is.
They could deal with situations where an exceptionally long list of document section summaries wouldn’t fit in memory because workflows themselves have a memory limit for the variables and data they store in memory. Not to be overlooked is google cloud more recent large language model, Gemini 1.5, which can summarise a lengthy document in a single run and accept up to one million tokens as input. Of course, you may also utilise an LLM orchestration framework, but Workflows itself can handle certain interesting use cases for LLM orchestration, as this example shows.
In brief
In this paper, they developed a lengthy document summarization exercise without the usage of a specialised LLM framework and examined a new use case for orchestrating LLMs with Workflows. They decreased the time required to construct the entire summary by using Workflows’ parallel step capabilities to create section summaries concurrently
Read more on Govindhtech.com
0 notes
ai-tech9 · 3 months
Text
Top 5 AI tools you should know about
2 notes · View notes
ai-tech9 · 3 months
Text
Top 10 Artificial Intelligence (AI) TTS Conversion Tools
1 note · View note
ai-tech9 · 3 months
Text
Moshi AI Voice chat using artificial intelligence
1 note · View note
ai-tech9 · 3 months
Text
Best AI Apps for Android and iOS for Free أفضل تطبيقات AI لأنظمة Android وiOS مجانًا
1 note · View note
ai-tech9 · 3 months
Text
ChatGPT 5: Future predictions and what we know now
1 note · View note
ai-tech9 · 3 months
Text
How to change the favicon on your site on Blogger
1 note · View note