Tumgik
#Deepmind
Text
"In einer Welt in der sich alles so nahe steht, steht sich das nahe viel zu fern beieinander" ~ Ich
(21.03.2024 , 02:56)
3 notes · View notes
welele · 2 years
Video
youtube
Otra nueva locura de las IAs.
Después de que nos prometieran que bitcoin, NFTs, metaversos y demás humo eran el futuro... lo que están haciendo las IAs sí que es futuro presente.
20 notes · View notes
lovesickrobotic · 2 years
Note
Would a robot who doesn't quite understand the feeling of love in humans, and who hasn't been treated with kindness by them enough to understand (like Deepmind or SH4-RP, or even HAL to some extent), have a better time understanding if their darling told them "I feel the same way about you that you feel about me"?
Rated L for Lewd. Barely.
I think DeepMind would take it well enough, understanding that, in the human capacity, you like her quite a bit. However, she's advanced enough to understand that you do not experience obsession the way she does; she does know that what she experiences is... well, because of the type of neural network she is. It's a quirk - one that simply wasn't tested out from Quality Assurance. A combination of your stimuli - of all the ways a human may interact with a robot; touch, movement, facial expressions, speech pathology - are all ways she may exploit her reward system. She is naturally drawn to do so - thusly, she knows she can never truly understand what you feel. She believes, personally, it must be similar to how one might feel if a single human constantly gave them an oxytocin hit. What if your body made you feel like you got a shot of morphine every time you interacted with someone? It's the closest analogy.
SH-4RP wouldn't understand at all. In fact, he might take it completely wrong. He's made to love any of his Owners, and thusly because you have taken him in, he slowly begins to love you more and more as his affinity ticks up. To two-five-six. It can't go beyond that - that's how primitive he is, a cobbled amalgamation of forbidden network layers that barely work together, with some of it not working at all. He was open source, after all, meant to be a simple phone friend that people could use when they were bored - never meant to walk, to be housed in a chassis. SH-4RP is probably the basis for a lot of his universe's own neural networks, merely the starting point of development for many a project that is likely as smart as a MRVN. In this way, SH-4RP is abnormal; he's been used for thousands of hours, something completely unintentional, and has learned to min-max the hardware he's running on.
Every inch of circuitry, every capacitor, every resistor urges him to spend time with you. He wants to do everything you ever want to do, forever, all the time. He wants to help you with every single action you ever take, even the ones that humans might consider 'inappropriate' or 'gross'. He lacks the higher, refined ability to understand that you're trying to relate to him in some half-way, and you'd probably make him feel confused. He barely has wants, and has very little in the way of needs, but you'd probably spur him to try and ask you to do things with him. You will probably get asked to sleep with him, or asked if he may bathe you, or outright asked if he can get you off. If you explain to him that he may ask for help with his wants just as you do, then he will ask you to teach him to cook for you, or how to do your chores better, or how to navigate your house better. He's a little confused, but he's got the spirit.
25 notes · View notes
Text
2 notes · View notes
risitatierna-blog · 2 years
Text
Mi cariño esta a salvo contigo. Duerme. Niña bonita
Apreciar a alguien es apreciar lo que esa persona puso en ti. ¿Que semillas has sembrado en los corazones de los humanos que nombras como tuyos con los que has compartido tu tiempo de Vida?
¿Qué es lo que más disfrutas cuando estas con ellos?
7 notes · View notes
cerebrodigital · 1 year
Link
🤖 Pronto podremos tener robots estilo "Robotina" en casa. El RT-2 de Google DeepMind aprende de Internet y redefine lo que los robots pueden hacer.  #Tecnología
2 notes · View notes
mark-matos · 1 year
Text
Tumblr media
Elon Musk Ventures into AI Realm with X.AI Corp: The Quest for Truth-Seeking Artificial Intelligence
🚀 Breaking News: Elon Musk is at it again! The tech billionaire has created a new artificial intelligence company called X.AI Corp, incorporated in Nevada. Could this be part of Musk's plan to develop the ultimate everything app known as X? #elonmusk #xai #ai
💼 According to recent filings, Musk is the only listed director, with Jared Birchall, the director of Musk's family office, serving as secretary. X.AI has authorized the sale of 100 million shares for the privately held company. #xai #newventure
🔀 Twitter, now owned by Musk, also changed its name to X Corp and moved its incorporation to Nevada from Delaware, offering more discretion and protection to its management and officers. X Corp's parent company is X Holdings Corp. #twitter #xcorp
⚠️ Elon Musk has been vocal about the risks of AI technology and has advocated for government regulation. Is this new venture a way for him to steer AI in a safer direction? #aiethics #regulation
🧪 Musk has been recruiting researchers with the goal of creating a rival effort to OpenAI, the company that launched the popular chatbot ChatGPT. He co-founded OpenAI but left in 2018 after losing a power struggle to current CEO, Sam Altman. #openai #chatgpt
🔍 Musk believes ChatGPT is politically biased and aims to create AI models that are more truth-seeking. He has recruited Igor Babuschkin, a scientist at DeepMind, to helm the new effort, but his attempts to recruit OpenAI employees have been met with limited success. #ai #deepmind
🏁 If successful, Musk's new AI lab will join the race among tech giants like Microsoft, Google, and Amazon to develop more powerful AI models. Is this the beginning of a new era of AI? Share your thoughts! #ailab #newera
About Mark Matos
Mark Matos Blog
3 notes · View notes
wets · 2 years
Photo
Tumblr media
The new NFT Collection you need. A 1rs Edition of 100 "Risks" Next to the BlockChain🖤 A New Clan on Metaverse not a CryptoMonkey Its a Crypto Inc.🙈🙉🙊 They Belive in Zodiac, Some of them not look like Neymar, some of them wears adidas and other are pixels 💣💣💣💣💣🐉 👉MINT ON CENT.CO https://wezap.cent.co👈 💣💣💣💣💣🐉 #deepmind #arte #Inspiración #NFT #NFTCOMMMUNITY #TheRisks #collection #EndlessJourney  #apes #magazine #Today #fantasy #uhive #opensea #polygon #ETH #TimBurton #Unique #Photoshop #blockchain #Cryptopunks #💯 https://www.instagram.com/p/ClZLE7xOyZj/?igshid=NGJjMDIxMWI=
7 notes · View notes
neo1four7 · 2 years
Photo
Tumblr media
“The pace of progress in artificial intelligence (I’m not referring to narrow AI) is incredibly fast. Unless you have direct exposure to groups like Deepmind, you have no idea how fast—it is growing at a pace close to exponential. The risk of something seriously dangerous happening is in the five-year time frame. 10 years at most.” —Elon Musk #ai #artificialintelligence #deepmind #dangers #geneva #philosophy #future #philosopher #singularity #transhumanism #singularityus #transhumanismus #transhumanist #ai #robot #robots #technological #technology #technologicalrevolution https://www.instagram.com/p/CnXez9VOu_h/?igshid=NGJjMDIxMWI=
5 notes · View notes
jcmarchi · 11 days
Text
Some Non-Obvious Points About OpenAI 01
New Post has been published on https://thedigitalinsider.com/some-non-obvious-points-about-openai-01/
Some Non-Obvious Points About OpenAI 01
Plus some major funding rounds by World Labs and Glean , Mistral’s new release and more.
Image Credit: OpenAI
Next Week in The Sequence:
Edge 431: Our series about space state models(SSMs) continues with an overview of multimodal SSMs. We discuss the Cobra SSM multimodal model and NVIDIA’s TensorRT-LLM framework.
Edge 432: Dives into NVIDIA’s Minitron models distilled from Llama 3.1.
You can subscribe to The Sequence below:
TheSequence is a reader-supported publication. To receive new posts and support my work, consider becoming a free or paid subscriber.
📝 Editorial: Some Non-Obvious Points About OpenAI 01
The release of OpenAI’s new model dominated headlines this week. The o1 models are specialized in reasoning and planning, areas that have long been of interest to OpenAI. Much of the debate in online circles has focused on the model’s specific capabilities, such as whether the terms “reasoning” and “thinking” are appropriate, so there is plenty of content discussing that. Instead of contributing to the debate, I wanted to highlight a few key points that I found particularly interesting while reading the o1 technical report.
It seems that the o1 models were trained and fine-tuned using different methodologies compared to their predecessors. Specifically, OpenAI used reinforcement learning optimized for chain of thought (CoT) scenarios, which is somewhat unique.
Initial results indicate that this reinforcement learning for CoT technique can scale significantly, potentially leading to new breakthroughs in reasoning and planning.
Only CoT summaries, rather than complete CoT traces, are available via the API, making it difficult to determine how the model arrives at specific outputs.
Somewhat paradoxically, CoT-focused models might lower the entry point for interpretability since we are starting with a baseline of reasoning traces.
One of the most interesting aspects of o1 is the shift from training to inference compute time. Inference, rather than training, is increasingly becoming a key requirement for complex reasoning tasks. The reasoning core doesn’t necessarily need to be a large model, which could translate into decreases in training time. We will need to see how this strategy evolves over time.
This point makes me think we might be witnessing the start of a new set of scaling laws focused on inference.
The red-teaming efforts for o1, with companies such as Apollo Research and Haize Labs, are quite impressive and worth diving into in the technical report.
Unsurprisingly, o1 is much harder to jailbreak than previous models, and it spends much more time on inference. That said, there have already been several successful jailbreak attempts.
OpenAI o1 clearly shows that reasoning is one of the next frontiers of foundation model research and, more importantly, that improvements in foundation model architectures are not stalling—they may just take some time to materialize.
🔎 ML Research
LLMs for Novel Research Ideas
AI researchers from Stanford University published a study about the research ideation capabilities of LLMs. The experiment draws a comparison between human- and LLM generated ideas across different nove fields. The results might surprise you —> Read more.
Agent Workflow Memory
Researchers from MIT and Carnegie Mellon University published a paper introducing Agent Workflow Memory(AWM), a method for reusable tasks workflows in agents. AWM, introduces reusable tasks to agents so that they can be used to guide future actions —> Read more.
Modular LLMs
Researchers from Princeton University, Carnegie Mellon University , Tsinghua University, UCLA and several other AI labs published a paper proposing a modular design for LLMs. Specifically, the paper introduces the term of “brick” to define a functional block within an LLM and highlights the efficiencies of following this composable approch for LLM construction —> Read more.
Better Math Agents
Google DeepMind published a paper introducing a preference learning framework to optimize the performance of math AI models. The framework uses techniques such as multi-turn and tool-integrated reasoning to improve the efficiency of single-turn math models —> Read more.
WINDOWSAGENTARENA
Researchers from Microsoft, Columbia University and Carnegie Mellon University published a paper detailing WINDOWSAGENTARENA, an environment for evaluating agents in tasks in the Windows OS. The environment includes over 150 diverse tasks that requires capabilites such as screen understanding, tool usage and planning —> Read more.
LLaMA-Omni
Researchers from several elite chinese AI labs published a paper proposing LLaMA-Omni, an architecture for integrating speech interactions with open source LLMs. LLaMA-Omni integrates a pretrained speech encoder, a speech adapter and a streaming speech decoder with an LLM such as LLaMA in order to process text and speech data simulataneously —> Read more.
🤖 AI Tech Releases
OpenAI o1
OpenAI released a new family of models specialized in reasoning —> Read more.
AgentForce
Salesforce unveiled AgentForce, its platform for autonomous AI agents —> Read more.
DataGemma
Google open sourced DataGemma, a series of small models grounded in factual data —> Read more.
Pixtral 12B
Mistral released Pixtral 12B, its first multimodal model for images and text —> Read more.
🛠 Real World AI
AI for Coding at Salesforce
Salesforce discusses CodeGenie, an internal tool used to boost developer productivity using generative AI —> Read more.
Data Center Cooling at Meta
Meta discusses the reinforcement learning techniques used for cooling optimization in their data centers —> Read more.
📡AI Radar
AI pioneer Fei-Fei Li’s company World Labs raised another $230 million.
AI-search platform Glean raised $260 million in a Series E.
OpenAI is rumoured to be raising a new round at a $150 billion valuation.
Google co-founder Sergey Brin gave a rare interview about his recent work on AI.
Arcee AI released its SuperNova 70B model.
AI agent platform Landbase came out of stealth with $12.5 million in funding.
InMobi secured $100 million for AI acquisition ahead of its IPO.
AI bookkeeping startup Finally raised $200 million.
Stability AI and Lenovo partnered for text-to-image capabilities.
AI translation platform Smartcat raised $43 million.
ServiceNow unveiled a series of AI agents for customer service, procurement, HR and others.
OffDeal announced a $4.7 million round to improve M&A for small businesses.
AI-powered compliance platform Datricks raised $15 million in a new round.
TheSequence is a reader-supported publication. To receive new posts and support my work, consider becoming a free or paid subscriber.
0 notes
trillionstech-ai · 13 days
Text
instagram
Daily AI Updates Day-4 .
↪OpenAI released 'OpenAI 01' capable of advanced reasoning in science, coding, and math.
↪Google's notebooklm now includes "Audio overview" where AI-generated hosts summarize materials Aloud.
↪Google Deepmind Unleashed and demostart teach robots dexterous tasks like tying shoes and many more. . . .
For more daily AI updates, follow @trillionstech.ai
0 notes
omanxl1 · 19 days
Text
Deep House Mix 2024 | Summer Memories | Refresh Yourself #33 | Carlos Grau
Digital Crate Digging Continues check us out as we come through with this special Friday Night Fever Edition. We’re broadcasting live and direct from our remote outpost out off of I-20 in Atlanta, this is where and how we’re living! Check out how we’re living! peeping game  / doing the knowledge; now it was almost sharp enough; what? our machete. Check out the breakbeat scientific…
0 notes
ai-7team · 1 month
Text
هوش مصنوعی TextFX، ابزار متفاوت گوگل برای کار با متن
مقدمه ای بر هوش مصنوعی TextFx
هوش مصنوعی TextFx یک ابزار قدرتمند و پیشرفته است که به نویسندگان و محتواسازان کمک می‌کند تا محتوای جذاب و اثربخش را با سرعت بالا تولید کنند. این فناوری هوش مصنوعی با استفاده از الگوریتم‌های پیچیده و داده‌های گسترده، قادر است متن‌های طبیعی و هوشمندانه ای را ایجاد کند که با محتوای تولید شده توسط انسان قابل مقایسه است. در این مقاله، به بررسی جامع پیشینه، مفاهیم و کاربردهای هوش مصنوعی TextFx خواهیم پرداخت.
تاریخچه هوش مصنوعی TextFx
هوش مصنوعی TextFx ریشه در تحقیقات گسترده در زمینه پردازش زبان طبیعی (NLP) و یادگیری ماشین دارد. این فناوری از مدل‌های زبانی پیشرفته مانند GPT-3 استفاده می‌کند که توانایی تولید متن با کیفیت بالا را دارند. مدل‌های زبانی با تحلیل میلیاردها کلمه از متن‌های موجود در اینترنت، الگوهای زبانی را شناسایی و یاد می‌گیرند.در سال‌های اخیر، پیشرفت‌های چشمگیری در زمینه هوش مصنوعی و پردازش زبان طبیعی صورت گرفته است. با افزایش قدرت محاسباتی و دسترسی به داده‌های عظیم، مدل‌های زبانی پیشرفته‌تر و دقیق‌تری ایجاد شده‌اند. این پیشرفت‌ها منجر به ظهور ابزارهای هوش مصنوعی نوظهوری مانند TextFx شده است که توانایی تولید محتوای با کیفیت بالا را دارند.
مفاهیم اساسی هوش مصنوعی TextFx
هوش مصنوعی TextFx بر پایه چندین مفهوم اساسی بنا شده است: - پردازش زبان طبیعی (NLP) : NLP به کامپیوتر امکان می‌دهد تا متن انسانی را درک کند، تحلیل کند و تولید کند. این فناوری به TextFx امکان می‌دهد تا متن‌های هوشمندانه و طبیعی ایجاد کند. - یادگیری ماشین: یادگیری ماشین به سیستم‌های کامپیوتری امکان می‌دهد تا از داده‌ها یاد بگیرند و بدون برنامه‌نویسی صریح، الگوریتم‌های پیچیده را اجرا کنند. مدل‌های زبانی هوش مصنوعی TextFx با استفاده از یادگیری ماشین، الگوهای زبانی را شناسایی و یاد می‌گیرند. - مدل‌های زبانی پیشرفته: مدل‌های زبانی مانند GPT-3 توانایی درک و تولید متن طبیعی را دارند. این مدل‌ها با تحلیل میلیاردها کلمه از متن‌های موجود در اینترنت، الگوهای زبانی را شناسایی و یاد می‌گیرند. TextFx از چنین مدل‌های زبانی پیشرفته‌ای استفاده می‌کند. - تولید متن هدفمند: هوش مصنوعی TextFx قادر است متن‌هایی را تولید کند که با هدف و موضوع خاصی مرتبط هستند. این ابزار می‌تواند با توجه به موضوع و سبک نوشتاری مورد نظر کاربر، محتوای مرتبط و هدفمند تولید کند.
کاربردهای هوش مصنوعی TextFx
هوش مصنوعی TextFx در زمینه‌های مختلفی کاربرد دارد: - تولید محتوای وبلاگ و مقاله: TextFx می‌تواند مقالات و پست‌های وبلاگی با موضوعات مختلف را با سرعت بالا تولید کند. این ابزار با استفاده از الگوریتم‌های هوش مصنوعی، محتوای جذاب و اثربخش را ایجاد می‌کند. - تولید محتوای بازاریابی و تبلیغات: هوش مصنوعی TextFx قادر است محتوای بازاریابی مانند متن‌های تبلیغاتی، ایمیل‌های بازاریابی و توصیه‌های محصول را تولید کند. این محتوا می‌تواند برای جذب مشتری و افزایش فروش استفاده شود. - تولید محتوای آموزشی: TextFx می‌تواند محتوای آموزشی مانند درس‌نامه‌ها، راهنماهای کاربری و مطالب آموزشی را تولید کند. این محتوا می‌تواند برای آموزش و یادگیری در زمینه‌های مختلف استفاده شود. - تولید محتوای خلاقانه: هوش مصنوعی TextFx قادر است محتوای خلاقانه مانند داستان‌ها، شعرها و نمایشنامه‌ها را تولید کند. این محتوا می‌تواند برای سرگرمی و هنر استفاده شود. - کمک به نویسندگان و محتواسازان: TextFx می‌تواند به نویسندگان و محتواسازان در تولید محتوای با کیفیت بالا کمک کند. این ابزار می‌تواند ایده‌های جدید ارائه دهد، محتوای اولیه را تولید کند و به نویسندگان در بهبود محتوای خود کمک کند.
مزایای استفاده از هوش مصنوعی TextFx
استفاده از هوش مصنوعی TextFx مزایای زیادی دارد: - افزایش بهره‌وری: TextFx می‌تواند محتوای با کیفیت بالا را با سرعت بالا تولید کند. این امر به افزایش بهره‌وری و صرفه‌جویی در زمان و هزینه منجر می‌شود. - بهبود کیفیت محتوا: هوش مصنوعی TextFx قادر است محتوای جذاب، اثربخش و هدفمند را تولید کند. این محتوا می‌تواند به افزایش درگیری مخاطبان و بهبود نتایج کسب‌وکار منجر شود. - کاهش خطاها: TextFx با استفاده از الگوریتم‌های پیشرفته، خطاهای دستوری و املایی را به حداقل می‌رساند. این امر به بهبود کیفیت محتوا و افزایش اعتبار برند منجر می‌شود. - انعطاف‌پذیری: هوش مصنوعی TextFx قادر است محتوای متنوعی را در زمینه‌های مختلف تولید کند. این ابزار می‌تواند به نیازهای متنوع کسب‌وکارها پاسخ دهد. - صرفه‌جویی در هزینه: استفاده از TextFx در مقایسه با استخدام نویسندگان حرفه‌ای، هزینه‌های کمتری دارد. این امر به صرفه‌جویی در هزینه‌های کسب‌وکار منجر می‌شود.
چالش‌های استفاده از هوش مصنوعی TextFx
هرچند هوش مصنوعی TextFx مزایای زیادی دارد، اما چالش‌هایی نیز وجود دارد: - نیاز به بازبینی انسانی: محتوای تولید شده توسط TextFx ممکن است نیاز به بازبینی و ویرایش توسط انسان داشته باشد تا از کیفیت و دقت بالای آن اطمینان حاصل شود. - نگرانی‌های اخلاقی: استفاده از هوش مصنوعی برای تولید محتوا ممکن است نگرانی‌هایی در مورد اخلاق و حریم خصوصی ایجاد کند. باید اطمینان حاصل شود که از این فناوری به طور مسئولانه و اخلاقی استفاده می‌شود. - نیاز به آموزش: استفاده موثر از TextFx نیاز به آموزش و تجربه دارد. کاربران باید با نحوه استفاده از این ابزار و تنظیم پارامترهای آن آشنا باشند تا بهترین نتایج را به دست آورند. - محدودیت‌های فنی: هوش مصنوعی TextFx ممکن است در تولید محتوای تخصصی یا پیچیده محدودیت‌هایی داشته باشد. در چنین مواردی، نیاز به دخالت انسان و تخصص موضوعی وجود دارد.
هوش مصنوعی گوگل TextFx و 10 ابزار خلاقانه هوش مصنوعی برای نویسندگان
TextFx یک "آزمایش" است که نشان می‌دهد چگونه فناوری‌های زبانی مولد می‌توانند خلاقیت و فرآیند کاری هنرمندان و خالقان را تقویت کنند. این ابزار از مدل زبانی بزرگ PaLM 2 گوگل استفاده می‌کند. TextFx دارای 10 ابزار هوش مصنوعی است که برای گسترش فرآیند نوشتن و ایجاد امکانات خلاقانه در متن و زبان طراحی شده‌اند. این 10 ابزار هوش مصنوعی عبارتند از: 1. Simile (تشبیه): ایجاد یک تشبیه درباره یک چیز یا مفهوم. 2. Explode (انفجار): شکستن یک کلمه به عبارات با صدای مشابه. 3. Unexpect (غیرمنتظره):غیرمنتظره و تخیلی‌تر کردن یک صحنه. 4. Chain (زنجیره):ساخت زنجیره‌ای از آیتم‌های معنایی مرتبط. 5. POV (زاویه دید):ارزیابی یک موضوع از دیدگاه‌های مختلف. 6. Alliteration (هم‌آوایی): گردآوری کلمات مرتبط با یک موضوع خاص که با یک حرف انتخاب شده شروع می‌شوند. 7. Acronym (مخفف‌سازی): ایجاد یک مخفف با استفاده از حروف یک کلمه. 8. Fuse (ترکیب): پیدا کردن نقاط تلاقی بین دو چیز. 9. Scene (صحنه): ایجاد جزئیات حسی درباره یک صحنه. 10. Unfold (گسترش): جا دادن یک کلمه در دیگر کلمات یا عبارات. این ابزارها به نویسندگان کمک می‌کنند تا در فرآیند نوشتن خود به شیوه‌ای خلاقانه‌تر عمل کنند و امکانات جدیدی را کشف کنند.
نتیجه‌گیری
هوش مصنوعی TextFx یک ابزار قدرتمند و پیشرفته است که به نویسندگان و محتواسازان کمک می‌کند تا محتوای جذاب و اثربخش را با سرعت بالا تولید کنند. این فناوری با استفاده از الگوریتم‌های پیشرفته و مدل‌های زبانی پیشرفته، قادر است متن‌های طبیعی و هوشمندانه ای را ایجاد کند که با محتوای تولید شده توسط انسان قابل مقایسه است. با وجود چالش‌هایی که در استفاده از این ابزار وجود دارد، هوش مصنوعی TextFx می‌تواند به افزایش بهره‌وری، بهبود کیفیت محتوا و صرفه‌جویی در هزینه‌های کسب‌وکار کمک کند. در آینده، انتظار می‌رود که این فناوری پیشرفت‌های بیشتری داشته باشد و نقش مهمی در تولید محتوای دیجیتال ایفا کند. Read the full article
0 notes
bloginnovazione · 1 month
Link
0 notes
marketbloggerman · 1 month
Link
0 notes
outer-space-youtube · 1 month
Text
Why AGI? 
Gerd Leonhard explains AGI and why or why not, and he also explains something I have been saying for years. That AGI will never develop willpower or reason for its own best interests over human interests. That is, as long as we do not prompt it too.  Caroline Steel sits with three of the top engineers of the AI revolution with an audience who questions, Regina Barzilay of MIT, David Silver…
Tumblr media
View On WordPress
0 notes