Don't wanna be here? Send us removal request.
Link
看看網頁版全文 ⇨ 雜談:奔跑吧,CPU小貓! / Talk: Run, CPU Cat! https://blog.pulipuli.info/2025/05/talk-run-cpu-cat.html 有段時間桌寵概念挺流行的。 大家都想要在桌面養個什麼玩意兒來分散自己寶貴的注意力。 後來我也決定在工作列裝個CatWalk,看小貓配合我努力工作時狂奔。 ---- # 貓在工作列上奔跑 / Cat Running on the Taskbar。 https://youtu.be/sioPOfP8nJk?t=428。 一開始我是在Yoga's Universe的影片裡看到RunCat的推薦。 這是一個Mac軟體,免費。 它的主要功能其實是效能監控。 只是效能的監控並不是用數字表示,而是用貓的奔跑速度來標示。 通常預設綁定的指標是CPU的總體使用率。 如果CPU使用率很高,貓奔跑的動畫速度會變得非常快;如果CPU使用率降低了,貓奔跑的動畫速度也會跟著慢下來。 RunCat軟體本身提供包括貓在內的28種動畫,不過還是奔跑的貓最得Yoga的歡心。 # KDE的CatWalk / CatWalk: An Widget in KDE。 https://store.kde.org/p/2055225。 既然Mac有這樣的軟體,那KDE會不會有呢?查了一下,沒想到還真的有一個近乎類似的Widget:CatWalk。 看來作者DRIGLU4IT是參考了RunCat的做法建立了CatWalk。 不過相較於RunCat的眾多功能,CatWalk的功能就簡單得多。 它沒有28種類型的動畫可以挑選,只能用貓作為動畫。 此外就是可以讓人決定要顯示的資訊,以及貓顯示睡覺圖片的門檻。 # 與貓同行的日子 / Days with the CatWalk。 我不喜歡在工作環境加入太多分散注意力的物品。 如果要加,那物品必須是有它的意義與價值,否則我連電器的指示燈都會把它遮起來。 CatWalk的本質是CPU使用率的體現。 一開始我只是想嚐鮮裝裝看,並不覺得自己需要認真看待CPU使用率。 畢竟電腦買來就是要用,用多跟用少,不都是好好使用而已嗎?我有必要花費注意力去關注CPU使用率嗎?。 直到有一次,我注意到小貓正在瘋狂奔跑,可是我現在的桌面似乎沒有在作什麼壓力很大的事情。 仔細檢查後,我才發現我使用的Docker因為開啟了restart policy,導致容器在出錯後不斷重啟、嘗試安裝、然後又出錯。 在我解決問題來源後,小貓的奔跑速度就恢復了正常。 經過這次事件,我開始重新認識到CPU佔用率等硬體指標有它存在的必要性。 ---- 繼續閱讀 ⇨ 雜談:奔跑吧,CPU小貓! / Talk: Run, CPU Cat! https://blog.pulipuli.info/2025/05/talk-run-cpu-cat.html
0 notes
Link
看看網頁版全文 ⇨ 你的CITATION.cff格式正確嗎? 用CITATION.cff驗證工具來檢查吧! / Is Your CITATION.cff Format Correct? Check It With the CITATION.cff Validator! https://blog.pulipuli.info/2025/04/is-your-citationcff-format-correct-check-it-with-the-citationcff-validator.html CITATION.cff是用於記錄供人引用資訊的一種YAML純文字格式。 那要怎麼知道自己寫的CITATION.cff是否正確呢?我們可以用R套件cffr來驗證。 我在Colab把它寫成了可以線上使用的CITATION.cff驗證工具了,讓我們一起來看看怎麼使用吧。 CITATION.cff is a plain text YAML format for recording citation information. How can you tell if your CITATION.cff is correct? We can use the R package cffr for validation. I've created an online CITATION.cff validator using Colab. Let's take a look at how to use it.。 ---- # CITATION.cff的功能與格式 / Citation.cff's Function and Schema。 https://carpentries.org/blog/2024/07/lesson-cffs/。 CITATION.cff (Citation File Format) 檔案旨在提供一種人類和機器都能讀取的軟體引用資訊格式。 藉由在軟體儲存庫的根目錄放置這個檔案,開發者可以清楚地告知使用者如何正確地引用他們的軟體(software)或資料集(dataset),提升學術交流的效率和資料的正確性。 這對於確保軟體開發者得到應有的認可,以及方便其他研究者追蹤和重現研究結果至關重要。 CITATION.cff 的使用也提升了軟體的可搜尋性和可重複使用性,進而推動更開放和合作的科學研究生態。 CITATION.cff 檔案採用 YAML 1.2 格式,這是一種人類可讀且機器易於解析的純文字格式。 檔案內容以鍵值對的形式呈現軟體的後設資料,例如軟體名稱 (title)、作者 (authors) 、版本 (version)、授權方式 (license)、程式碼儲存庫網址 (repository-code)等。 這樣的格式讓使用者可以輕鬆地理解和更新引用資訊,同時也方便各種工具自動解析和轉換這些資訊,例如產生不同引用格式(MLA, APA, Chicago 等)的引用條目。 ---- 繼續閱讀 ⇨ 你的CITATION.cff格式正確嗎? 用CITATION.cff驗證工具來檢查吧! / Is Your CITATION.cff Format Correct? Check It With the CITATION.cff Validator! https://blog.pulipuli.info/2025/04/is-your-citationcff-format-correct-check-it-with-the-citationcff-validator.html
0 notes
Link
看看網頁版全文 ⇨ 如何將螢幕畫面擷取成圖片? / How to Capture a Screenshot? https://blog.pulipuli.info/2025/04/how-to-capture-a-screenshot.html 本篇將說明如何在桌上型電腦Windows、Linux、MacOS以及行動裝置的Android、iPhone或iPad上擷取螢幕畫面。 大多時候,其實我們都可以用鍵盤上的快速鍵「PrtSc」來擷取畫面。 This article explains how to take screenshots on desktop Windows, Linux, MacOS, and mobile devices like Android, iPhone, or iPad. Most of the time, we can use the "PrtSc" hotkey on the keyboard to capture the screen.。 ---- # Windows 請使用「剪取工具」來擷取畫面。 通常使用「長方形剪取」可以讓你選擇合適的範圍。 ---- # Linux (photo credit: https://www.youtube.com/watch?v=HJjaO7dmxKE )。 按下 PrtSc鍵 (通常在F12右邊)。 ---- # Mac OS 快捷鍵: Shift + Command + 4。 詳細說明請看 https://support.apple.com/zh-tw/102646。 ---- # Android 手機或平板 / For Android Phone or Tablet。 (photo credit: https://www.howtogeek.com/834285/5-android-screenshot-tricks-you-should-know/ )。 同時按下 側邊按鈕 和 調高音量按鈕。 ---- # iPhone手機與iPad / For iPhone or iPad。 (photo credit: https://www.hellotech.com/guide/for/how-to-take-a-screenshot-on-an-iphone )。 同時按下 側邊按鈕 和 調高音量按鈕。 ---- 看看網頁版全文 ⇨ 如何將螢幕畫面擷取成圖片? / How to Capture a Screenshot? https://blog.pulipuli.info/2025/04/how-to-capture-a-screenshot.html
0 notes
Link
看看網頁版全文 ⇨ 雜談:Home Assistant在遠端電腦播放聲音 / TALK: Playing Audios on a Remote Computer with Home Assistant https://blog.pulipuli.info/2025/04/talk-playing-audios-on-a-remote-computer-with-home-assistant.html 結論寫在前面,最後我還是在Home Assistant使用vlc-telnet播放聲音,這是最簡單的做法了。 ---- # Home Assistant播放聲音的需求 / The Need to Play Sounds in Home Assistant。 Home Assistant的主要功能是蒐集各種感測器的資訊,並在設定好的規則下去遙控不同的設備。 其中,聲音的播放其實也是遙控的目標之一。 我使用Home Assistant播放聲音的情況大致上可以分成兩類:特定情境下播放的背景音樂、提示的語音播報。 前者是在我在工作、準備睡覺需要助眠、鬧鐘提醒等情況下播放對應的音樂;後者則是用於任何需要提醒我的情況,例如水壺的水燒開了(沒錯,如果不提醒的話,我會完全忘記我在燒開水)、洗衣機的衣服洗好了。 之前我甚至利用語音播報功能,播放手機裡面的特定消息,例如指定某些人的LINE或Messenger訊息。 這樣就可以讓我不用拿起手機看,用聽的就能知道訊息的開頭。 Home Assistant播放聲音的功能中,主要使用的瀏覽器跟VLC-TELNET這兩種做法。 如果我們有固定用來操控Home Assistant的設備,那用網頁瀏覽器應該是很直覺的選擇。 不過大多時候我會用手邊的設備來操控Home Assistant。 在電腦前面就用網頁,拿起手機或平板的時候,就用這些行動裝置操控Home Assistant。 因此VLC-TELNET一般來說會是更好用的選擇。 ---- # 遠端操控VLC播放器:VLC-TELNET / Remotely Controlling VLC Media Player: VLC-TELNET。 https://www.youtube.com/watch?v=upshdP-1K_0。 VLC 是一款功能強大的多媒體播放器,除了基本的播放功能外,它還提供了透過 Telnet 協定進行遠端控制的功能。 這意味著使用者可以透過網路,從另一台裝置 (例如電腦或手機) 對 VLC 進行控制,例如播放、暫停、調整音量、切換曲目等等。 這個功能對於需要遠端管理多媒體播放的場合非常實用,例如在家庭劇院系統中,或是需要在不同房間控制音樂播放的情況。 在安裝好VLC播放器之後,以下指令可以讓VLC播放器開啟遠端遙控的功能:。 [Code...] ---- 繼續閱讀 ⇨ 雜談:Home Assistant在遠端電腦播放聲音 / TALK: Playing Audios on a Remote Computer with Home Assistant https://blog.pulipuli.info/2025/04/talk-playing-audios-on-a-remote-computer-with-home-assistant.html
0 notes
Link
看看網頁版全文 ⇨ 雜談:用Dify跟Stable Diffuision製作投影片章節的封面照片 / Talk: Creating a Cover Image for Slide Section Using Dify and Stable Diffusion https://blog.pulipuli.info/2024/12/talk-creating-a-cover-image-forslide-section-using-dify-and-stable-diffusion.html 為投影片的內容選擇合適的照片真不是一件容易的事情。 於是我就試著將投影片的內容傳送給大型語言模型,請大型語言模型撰寫適合Stable Diffusion的提示詞,然後用提示詞來繪圖看看。 這樣的工作流會出現什麼結果呢?。 ---- # 章節的封面照片 / A Cover Image for Slide Section。 我在部分投影片樣板中需要在每個章節加上一個說明本章內容的照片,而要如何挑選這張照片,每每都讓我傷透腦筋。 在Stable Diffusion環境無法運作的期間,我使用的是Image Creator in Bing來繪製投影片需要的照片。 但使用Bing來繪圖時仍遭遇了不少問題:。 - 每日點數限制:Bing每24小時只能下15次prompt。 - 圖片尺寸限制:Bing預設是產生1:1方形圖片,如果要製作像是上圖投影片中的圖片,寬高比例大概是1200:600,那就不太容易做到。 - 提示詞管理的限制:Bing只提供一個輸入prompt的欄位。導致每次我都要將要繪製的主題與風格等必要的提示詞重新組合,才能比較可能繪製出固定風格的圖片。 除此之外,既然都已經有做好的投影片了,我還要自己規劃圖片的主題嗎?能不能請大型語言模型來幫我處理這件事情呢?於是我就開始動手打造整個工作流的雛形。 # 從投影片產生提示詞 / Generating Prompts from Slides。 工作流的第一件事情是決定要繪製圖片的投影片範圍。 我的做法是把投影片的特定範圍另存新檔,並且儲存成pptx的檔案格式,這樣才能讓Dify抽取檔案內容。 接著我就在Dify製作對應的工作流。 整個流程也很簡單,只有四個節點:。 1. 輸入框:讓我能夠上傳投影片檔案,以及微調繪圖方向。 2. 文件內容抽取:將投影片內容抽取成文字。 3. 大型語言模型:請Gemini 2.0根據文件內容規劃Stable Diffusion XL使用的提示詞。 4. 輸出結果。 值得注意的是,我可以在大型語言模型的提示詞裡面加上一些必要元素和特殊風格的指示,使得大型語言模型產生的提示詞比較容易特定的字詞,以此確保產生出來的圖片能有著符合投影片的一貫風格。 最後的輸出結果會是這種感覺。 ---- # 在Stable Diffusion繪圖 / Drawing in Stable Diffusion。 ---- 繼續閱讀 ⇨ 雜談:用Dify跟Stable Diffuision製作投影片章節的封面照片 / Talk: Creating a Cover Image for Slide Section Using Dify and Stable Diffusion https://blog.pulipuli.info/2024/12/talk-creating-a-cover-image-forslide-section-using-dify-and-stable-diffusion.html
0 notes
Link
看看網頁版全文 ⇨ GitHub上的軟體作品也能申請DOI:Zenodo與Github設定教學 / Software Projects on GitHub Can Also Apply for DOIs: A Tutorial on Zenodo and GitHub Configuration https://blog.pulipuli.info/2025/04/software-projects-on-github-can-also-apply-for-dois-a-tutorial-on-zenodo-configuration.html 有人注意到我的GitHub保存庫出現了DOI的標示嗎?DOI是學術界確保數位資源能夠長期被人取用的重要方法,常用於學術期刊文章上。 但其實任何數位資源都可以註冊DOI,包括發佈在GitHub上的軟體。 有了DOI,大家就更容易引用你的作品,也可以為你的作品留下一個確確實實存在的記錄。 那麼到底怎麽為GitHub申請DOI?又怎麼讓DOI的徽章出現在GitHub儲存庫的首頁?這篇就讓我們一起來看看怎麼做吧。 Has anyone noticed the DOI badge appearing on my GitHub repositories? DOIs are crucial in academia for ensuring the long-term accessibility of digital resources and are frequently used for journal articles. However, any digital resource can be assigned a DOI, including software hosted on GitHub. With a DOI, it becomes easier for others to cite your work and provides a permanent record of its existence. So, how do you get a DOI for your GitHub repository, and how do you display the DOI badge on your repository's homepage? Let's explore how to do just that in this post.。 ---- # 什麼是DOI? / What Is a DOI?。 (圖片來源:https://sciencen.org/o/doi/ )。 數位物件辨識符 (DOI, Digital Object Identifier) 就像網路世界的身分證字號,能賦予數位資源一個獨一無二且永久的標記。 舉凡期刊文章、研究報告、資料集、官方出版品,甚至是影音檔案或書籍,都能透過 DOI 精確地被辨識。 ---- 繼續閱讀 ⇨ GitHub上的軟體作品也能申請DOI:Zenodo與Github設定教學 / Software Projects on GitHub Can Also Apply for DOIs: A Tutorial on Zenodo and GitHub Configuration https://blog.pulipuli.info/2025/04/software-projects-on-github-can-also-apply-for-dois-a-tutorial-on-zenodo-configuration.html
0 notes
Link
看看網頁版全文 ⇨ 來看看3D掃描儀掃描了什麼模型吧 / Let's See What Models the 3D Scanner Scanned https://blog.pulipuli.info/2025/04/lets-see-what-models-the-d-scanner-scanned.html 之前我在幾次「數位化與延展實境工作坊」裡面都有介紹到3D掃描儀REVOPOINT POP3。 工作坊的過程也常常聽到同學讚歎掃描儀的表現。 到底大家在工作坊裡面掃描了什麼東西呢,讓我們一起來看看吧。 In previous "Digitalization and Extended Reality Workshops," I've introduced the REVOPOINT POP3 3D scanner. During the workshops, I often heard participants praising the scanner's performance. So, what exactly did everyone scan during these workshops? Let's take a look.。 ---- # 3D全彩掃描儀 REVOPOINT POP3 / 3D Full-Color Scanner Revopoint Pop 3。 REVOPOINT POP3 是一款輕巧便攜的3D全彩掃描器,適合中型物體和人臉的掃描,並能產生高品質的彩色3D模型。 其升級的硬體和軟體,讓掃描過程更穩定、更有效率。 POP3 配備高畫質RGB相機和閃光LED照明系統,能捕捉精確的色彩細節,並透過多種掃描模式,適用於各種形狀和尺寸的物體。 此外,POP3 還搭載了九軸IMU(慣性測量單元),可更流暢地追蹤掃描軌跡,減少點雲資料(point cloud data)的偏移,進而提升掃描精度。 使用者能透過簡易操作的軟體介面,快速完成後製處理,並將掃描模型匯出至各種CAD、3D建模和切片軟體,廣泛應用於3D列印、逆向工程、醫療保健、產品設計等領域。 https://www.zeczec.com/projects/revopoint-pop-3。 POP3 具有多項特色功能,例如更大型的RGB相機開口和額外的LED輔助照明,能捕捉更多光線資訊,提升色彩的準確性和紋理的清晰度。 其單幀精度最高可達0.05mm,掃描速度則提升至18fps,能更快速地完成掃描作業。 同時,POP3 也支援多種掃描模式,包括特徵點對齊、紋理追蹤和色彩掃描等,能滿足不同的掃描需求。 透過內建的觸控面板,使用者可直接在裝置上控制掃描的開始/停止以及曝光調整,簡化操作流程。 ---- 繼續閱讀 ⇨ 來看看3D掃描儀掃描了什麼模型吧 / Let's See What Models the 3D Scanner Scanned https://blog.pulipuli.info/2025/04/lets-see-what-models-the-d-scanner-scanned.html
0 notes
Link
看看網頁版全文 ⇨ 淡江113學年度資訊週推廣活動:數位化與延展實境工作坊 / Digitalization and Extended Reality Workshop: Tamkang University Information Week 2024 https://blog.pulipuli.info/2025/01/digitalization-and-extended-reality-workshop-tamkang-university-information-week.html 「當數位典藏走進元宇宙:數位化與延展實境工作坊」又來開講囉!這次是面向同學們的工作坊活動,主要介紹3D掃描儀REVOPOINT POP3 跟 XR裝置 Meta Quest 3。 讓我們一起來看看活動內容講了什麼吧!。 "When Digital Archives Enter the Metaverse: Digitization and Extended Reality Workshop" is back! This time, it's a workshop geared towards students, primarily introducing the REVOPOINT POP3 3D scanner and the Meta Quest 3 XR device. Let's take a look at what the event covered!。 ---- # 活動介紹 / Introduction。 隨著科技的進步,元宇宙已經逐漸走到了人人可以負荷的消費級市場,也成為圖書館提供資訊服務的延伸場域之一。 過往數位典藏以平面掃描、拍照與錄影為主要形式,而元宇宙裡面所使用的立體模型,現今也可以透過立體掃描儀輕鬆建立模型。 本次活動特別邀請前淡江大學資訊與圖書館學系助理教授陳勇汀教授,教授相關知識,並使用立體掃描儀跟拓展實境儀器Meta Quest 3讓學員體驗XR與元宇宙的奇妙世界。 ---- # 投影片 / Slide https://docs.google.com/presentation/d/1q2MmogkiP8bC7KhS4RpP353z1vE8J5lq8YDh_knjPn8/edit?usp=sharing。 - Google簡報線上檢視 - PDF格式下載 - Power Point (.pptx) 格式備份:Google Drive、SlideShare、GitHub、One Drive、Mega、Box、MediaFire、pCloud、4shared、ASUS WebStorage ## 大綱 / Outline - 前言 - 立體數位化:3D全彩掃描儀 REVOPOINT POP3 、操作展示 - XR延展實境:Meta Quest 3、操作展示 - 自由體驗時間 - 結語:深耕元宇宙 ## 內容 / Description ---- 繼續閱讀 ⇨ 淡江113學年度資訊週推廣活動:數位化與延展實境工作坊 / Digitalization and Extended Reality Workshop: Tamkang University Information Week 2024 https://blog.pulipuli.info/2025/01/digitalization-and-extended-reality-workshop-tamkang-university-information-week.html
0 notes
Link
看看網頁版全文 ⇨ 雜談:回頭閱讀舊的RSS文章 / TALK: Looking Back on Old RSS Posts https://blog.pulipuli.info/2025/04/talk-looking-back-on-old-rss-posts.html 看著RSS未讀文章的數量逐漸減少,其實也像是一種生活成就。 ---- # 新聞資訊來源 / News Sources。 https://news.google.com/home?hl=zh-TW&gl=TW&ceid=TW:zh-Hant。 大家是怎麼獲得新知的呢?除了透過Google News這種以彙集新聞為主的網站之外,我看現在好多人都是用社群媒體來獲得新知。 然而社群媒體的演算法是考量了眾多因素才將資訊推到你眼前,「新穎性」只是其中一項因素而已。 我自己使用的是被人遺忘已久的RSS。 RSS是一種主動訂閱資訊來源的形式,它有點像是人們定期打開網頁、瀏覽網頁上的最新資訊,不過實際上讀者是在自己習慣的閱讀軟體內閱讀這些資訊。 舉個更親民的例子,它有點像是電子信箱的廣告信、LINE上的推播廣告的感覺。 你在你習慣使用的平臺上,閱讀著其他來源的新聞資訊,而不需要逐一去拜訪各別的網站。 這樣說來,Feedly這種RSS閱讀器就更加像是一個專用的Email信箱,專門用來保存那些我們只要閱讀、不用回覆的新聞資訊。 ---- # RSS資訊來源 / RSS Feeds。 https://feedly.com 在Google Reader關閉之後,這十幾年來我都是使用Feedly來作為RSS新聞聚合平臺。 是說當年沒有買下Feedly永久會員真的是個錯誤判斷,Feedly已經確確實實成為了我重要的新聞來源。 跟一般人想象中的RSS閱讀器可能不太一樣,我的Feedly除了彙整一般新聞網站的RSS訂閱來源之外,裡面也包含了將Email轉換成RSS的信件新聞。 詳細做法可以看我寫過的「把電子報轉成RSS訂閱」。 如今來看,它還是一個很好用的技巧。 此外,我在Feedly裡也有訂閱YouTube頻道。 沒錯,我並不是用「喜歡、訂閱、開啟小鈴鐺」來查看各個頻道的最新影片,而是在Feedly上瀏覽後,再選擇想要看的影片並跳轉到YouTube觀看。 不只是YouTube,我也將Facebook粉絲頁轉換成RSS來訂閱。 Facebook轉RSS的做法是用了FetchRSS的服務,它的免費版一些限制,但整體而言算是非常好用的工具了。 # 未讀文章 / Unread Articles。 這樣作下來,結果就是我在Feedly的訂閱來源是爆炸的多,未讀文章大多時候都持續保持在「1K+」的計數,怎麼讀也看不到減少。 ---- 繼續閱讀 ⇨ 雜談:回頭閱讀舊的RSS文章 / TALK: Looking Back on Old RSS Posts https://blog.pulipuli.info/2025/04/talk-looking-back-on-old-rss-posts.html
0 notes
Link
看看網頁版全文 ⇨ 為什麼影印機讀不到隨身碟?分割表格式的問題與解法 / Why Can't the Copier Read My USB Drive? Problems and Solutions Related to Partition Table Formats https://blog.pulipuli.info/2025/03/why-cant-the-copier-read-my-usb-driveproblems-and-solutions-related-to-partition-table-formats.html 對軟體工程師來說,隨身碟的功能大多是刷ISO映像檔拿來安裝作業系統。 但刷完之後再重新格式化,此時要拿它去影印機等裝置存儲檔案,又會發現隨身碟不能讀取了。 原來這背後的原因,是因為「分割表格式」被設定為GPT的緣故。 「分割表格式」到底是什麼?為什麼會被設定為GPT?要怎麼解決?就讓我們一起看下去吧。 For software engineers, USB drives are often used to flash ISO images for installing operating systems. However, after flashing and reformatting the drive, it often becomes unreadable by devices like copiers. The reason behind this lies in the " Partition Table Format" being set to GPT. What exactly is a " Partition Table Format"? Why is it set to GPT? And how can this issue be resolved? Let's delve into these questions.。 ---- # 問題描述 / Problem 現在辦公室大多都不購買影印機、印表機和掃描機,而是選擇跟廠商租借,再根據用量來付租金。 這種影印機大多都集多功能為一身,其中也包括了能夠讀取USB隨身碟,從USB隨身碟列印檔案,或是將掃描文件的圖片檔案存入USB隨身碟中。 這次的例子是SHARP的MX-M266N。 其實是很常見的機型呢。 一般情況下,我們只要將隨身碟插入到影印機提供的USB Type-A孔,就能夠使用USB隨身碟讀取或寫入檔案。 不過有時候卻會出現錯誤訊息「一個錯誤發生,當存取此記憶裝置.」。 這是為什麼呢?。 但是如果將USB隨身碟插入到電腦上,用Windows或Linux讀取時,其實都能正常讀到檔案的內容。 究竟是發生了什麼事情呢?。 ## 不是檔案系統的問題 / It's Not a Filesystem Issue。 一開始我推測可能是檔案系統(file system)的問題。 ---- 繼續閱讀 ⇨ 為什麼影印機讀不到隨身碟?分割表格式的問題與解法 / Why Can't the Copier Read My USB Drive? Problems and Solutions Related to Partition Table Formats https://blog.pulipuli.info/2025/03/why-cant-the-copier-read-my-usb-driveproblems-and-solutions-related-to-partition-table-formats.html
0 notes
Link
看看網頁版全文 ⇨ 雜談:ComfyUI很好用,但結果跟WebUI不一樣 / ComfyUI Is User-Friendly, But Results Differ From WebUI https://blog.pulipuli.info/2025/01/comfyui-is-userfriendly-but-results-differ-from-webui.html 繼上次把Forge裝起來後,我還是覺得生圖的方式太沒效率了,所以轉向尋求其他工具。 這次嘗試的是Dify跟ComfyUI的結合。 ---- # 基礎圖片 / Baseline 我們先來試試看用同樣的配置在不同環境下的表現。 由於Forge可以設定的比較詳細,我們先以Forge的設定為基礎。 這張希希助教的完整設定如下: 模型使用的是Stable Diffusion 1.5系列。 SDXL跟Pony一直找不到類似的感覺,真令人困擾,到最後還是用回了SD 1.5。 以下是模型的相關資料: - Base Model: 7th_anime_v3_Chttps://huggingface.co/syaimu/7th_Layer/blob/main/7th_anime_v3/7th_anime_v3_C.ckpt - LORA: Gacha splash LORA - v4.0https://civitai.com/models/13090/gacha-splash-lora - LORA: Genshin Sticker Chibi Style - GenshinStickersV1https://civitai.com/models/20163/genshin-sticker-chibi-style - LORA: koreanDollLikeness_v15https://civitai.com/models/24372/koreandolllikenessv15 - embedding: bad-hands-5https://civitai.com/models/116230/bad-hands-5 - embedding: bad_prompt Negative Embeddinghttps://civitai.com/models/55700/badprompt-negative-embedding - embedding: EasyNegativehttps://civitai.com/models/7808/easynegative - VAE: kl-f8-anime2 VAEhttps://civitai.com/models/23906/kl-f8-anime2-vae 如果要圖片變得更細緻,需要搭配ControlNet的tile使用:。 ---- 繼續閱讀 ⇨ 雜談:ComfyUI很好用,但結果跟WebUI不一樣 / ComfyUI Is User-Friendly, But Results Differ From WebUI https://blog.pulipuli.info/2025/01/comfyui-is-userfriendly-but-results-differ-from-webui.html
1 note
·
View note
Link
看看網頁版全文 ⇨ 用Felo AI對「布丁布丁吃什麼?」提問吧! / Ask "What does Pulipuli eat?" with Felo AI! https://blog.pulipuli.info/2025/03/ask-what-does-pulipuli-eat-with-felo-ai.html 自從「布丁布丁吃什麼?」改用Felo AI作為站內的搜尋引擎之後已經一段時間了。 這對部落格的使用帶來什麼影響呢?讓我們一起來看看吧。 Since "Pulipuli's Blog" switched to using Felo AI as its internal search engine, some time has passed. What impact has this had on the blog's usage? Let's take a look.。 ---- # 「問」部落格 / "Ask" Blog。 「布丁布丁什麼?」部落格的Felo AI引擎安裝在右上角的搜尋框內,用對話的圖示 來顯示。 手機版也可以點選右上角的「選單」圖示,就可以看到在下拉選單裡面的搜尋按鈕。 按下去之後會開啟Felo AI搜尋引擎的網頁,並且需要等待一段時間,讓Felo AI拆解問題、轉換問題的形式、搜尋,最後彙整結果。 稍待片刻,我們可以看到Felo AI彙整的回答。 值得注意的是,由於我在問題裡面加上了「site:blog.pulipuli.info」的範圍限制,這會讓Felo AI搜尋的來源限縮與「布丁布丁吃什麼?」。 你可以注意到Felo AI的回覆會有引用來源。 而這些來源會指向網站內的連結。 如果想要確認Felo AI回覆的細節,可以點開來源網站,查閱詳細的資訊。 ---- # 成也IR,敗也IR / IR: A Double-Edged Sword。 在大多時候Felo AI作為站內搜尋引擎的表現都比我想像中的好上許多。 儘管它背後運作原理是大型語言模型,也就是像是聊天機器人一樣的形式,但我們依然可以用關鍵字來搜尋。 只要關鍵字本身可以透過Google搜尋引擎在部落格找到結果,那Felo AI也就能夠取得類似的資料,並將它作為資料來源,提供給大型語言模型撰寫回答。 在「Linux 發佈版 site:blog.pulipuli.info」的例子中,我們可以看到Felo AI找到了20個資料來源,以此擬定答案。 但「布丁布丁吃什麼?」提到Linux發佈版的文章只有20篇嗎?我可不這樣覺得。 如果改用Google搜尋引擎的話,我們可以找到更多與Linux有關的相關文章。 沒錯,Chromebook也是能夠用Linux多個發佈版,並運作Linux APP的喔!。 ---- 繼續閱讀 ⇨ 用Felo AI對「布丁布丁吃什麼?」提問吧! / Ask "What does Pulipuli eat?" with Felo AI! https://blog.pulipuli.info/2025/03/ask-what-does-pulipuli-eat-with-felo-ai.html
0 notes
Link
看看網頁版全文 ⇨ 雜談:期盼了三年的巧味豬腳便當 / Long-Awaited Chiao Wei Pork Bento https://blog.pulipuli.info/2025/03/longawaited-chiao-wei-pork-bento.html 天下第一攤的手作便當,依然十分美味。 ---- # 木新市場的在地美食 / Local food in Muxin Market。 我在政大唸書跟工作時住在木新市場附近,附近美味的食物大概了解十之八九。 後來去淡水工作,就很難有機會再回來這附近吃飯。 以前是有幾次要從七張站趕去政大,但很難趕上早上營業的木新市場。 最近總算有機會,一早就在政大把事情處理完,然後搭車來到木新市場這邊吃飯。 在公車站「木新市場」下車後,看到那個7-11,轉過頭就會是熱鬧的木新市場。 總覺得木新市場周圍環境有比之前更乾淨了些,應該是有在持續整頓吧。 木新市場的本身有二層,市場的部分集中在一樓。 裡面面積很大,地下是停車場。 來到靠近角落的攤販,那個熟悉的「天下第一攤 手作便當」招牌依然懸掛在哪裡。 而對面仍然是勤快地幫豬腳剃毛的阿姨們。 不同的是,不知道是不是我太早到的關係,並沒有看到以往的排隊人潮,而且內用的桌椅也撤收了。 跟老闆打了招呼,敘敘舊。 老闆說是因為曾經有客人在內用時起了爭執,所以才取消內用的餐位。 我懂,這便當真的是好吃到會讓人搶佔位置。 我買了95元的招牌便當,到附近找個地方享用它。 # 招牌便當 / Signature Bento。 招牌便當裡面有控肉、腱子、蹄膀,配菜有滷白菜、油豆腐和筍絲。 我通常都吃腱子肉,帶筋咬起來很紮實,可以感受到大口吃肉的快感。 豬腳的蹄髈嚼起來十分帶勁。 咀嚼的時候口裡會被滷肉的香氣佔滿。 焢肉則是肥瘦兼具,但口感軟嫩,彷彿可以用吞一樣,一不小心肉就消失了。 我也好喜歡他們家的筍絲,滷得十分入味,又不會死鹹。 最後又回去買了一些真空包裝的豬腳、蹄膀、三層肉,之後可以帶回去幫家裡加菜。 事隔快三年,能再次吃到巧味豬腳便當真的是太感動了。 不過吃完胖胖便當,接下來得要好好運動才行喔!。 ---- 看看網頁版全文 ⇨ 雜談:期盼了三年的巧味豬腳便當 / Long-Awaited Chiao Wei Pork Bento https://blog.pulipuli.info/2025/03/longawaited-chiao-wei-pork-bento.html
0 notes
Link
看看網頁版全文 ⇨ Python自然語言處理應用:命名實體識別與情緒分析 / Python Natural Language Processing Applications: Named Entity Recognition and Sentiment Analysis https://blog.pulipuli.info/2025/03/python-natural-language-processing-applications-named-entity-recognition-and-sentiment-analysis.html 儘管大型語言模型的盛行讓大家瞭解到AI分析文字的能力,但直接以命名實體識別和情緒分析來處理文本的做法,在具有特定目標的研究報告裡仍扮演著重要的角色。 這篇就讓從我們從學習Python的使用,一步一步踏入命名實體識別和情緒分析的領域吧。 Although the prevalence of large language models has made people aware of AI's ability to analyze text, direct processing of text using Named Entity Recognition (NER) and Sentiment Analysis (SA) still plays a vital role in research reports with specific objectives. This article will guide us through the process of learning Python, step by step, to delve into the realm of Named Entity Recognition and sentiment analysis.。 Short URL: https://l.pulipuli.info/24/nsysu。 ---- # 簡介 / Introduction 在大數據時代,如何從巨量的非結構性文字資料中萃取出有價值的資訊,以支持決策和洞見,已成為一項現代人應具備的重要技能。 本次演講將介紹如何應用當前主流的深度學習模型,聚焦於自然語言處理(NLP)的兩個核心議題:命名實體識別(Named Entity Recognition, NER)與情緒分析(Sentiment Analysis)。 我們將以實作教學的方式,帶領大家深入了解這些技術的應用場景與實際操作。 演講中,我們將使用 Python 作為主要程式語言,並在 Google Colab 上進行操作,讓您能夠動手實作,親身體驗 NLP 的魅力。 請與會者提前準備好電腦,並註冊與登入 Google Colab,與我們一起探索自然語言處理的世界,共同激發更多創新的應用想法!。 ---- # Part 1. 環境配置篇 / Environment Configuration。 ---- 繼續閱讀 ⇨ Python自然語言處理應用:命名實體識別與情緒分析 / Python Natural Language Processing Applications: Named Entity Recognition and Sentiment Analysis https://blog.pulipuli.info/2025/03/python-natural-language-processing-applications-named-entity-recognition-and-sentiment-analysis.html
0 notes
Link
看看網頁版全文 ⇨ 雜談:到底要怎麼使用RAGFlow呢? / TALK: RAGFlow Drained All My Resources https://blog.pulipuli.info/2025/03/talk-ragflow-drained-all-my-resources.html 由於這次RAGFlow看起來又無法順利完成任務了,我還是來記錄一下目前的狀況吧。 ---- # 專注做好RAG的RAGFlow / RAGFlow: Focusing on RAG。 https://ragflow.io/ 在眾多LLM DevOps的方案中,RAGFlow也絕對可以算得上是重量級的那邊。 相較於其他方案,RAGFlow一直積極加入各種能夠改進RAG的特殊技術,使得它在RAG的應用方面出類拔萃。 RAGFlow的主要特色包括了: 1. 文件複雜排版分析功能:能夠解讀表格,甚至能分析PDF裡面圖片的文字。 2. 分層摘要RAPTOR。能改善RAG用分段(chunking)切斷資訊的問題。 3. 結合知識圖譜的GraphRAG跟LightRAG。讓回答著重與命名實體,而且還可能找到詞彙之間的隱含關係。 4. 能作為Dify外部知識庫使用。 不過,除了第四點之外,要做到前三項功能,目前看起來還有很多問題需要克服。 # 硬體要求 / Hardware Requirements。 由於運作RAGFlow會使用OCR來分析文件的排版,記憶體最好是給到16GB之多,硬碟空間也需要準備50GB。 這真的是重量級的方案。 如果這些準備好的話,要做到分析複雜排版文件的這件事情就不是很難了。 只要做到這個程度,RAGFlow就能在回答引用時顯示來源的文件位置。 這樣幫助就很大了呢。 # 大量請求的難題 / The Challenge of Numerous Requests。 相較於排版分析是RAGFlow組件中的功能,RAPTOR跟Knowledge Graph都要搭配大型語言模型才能解析跟查詢資料。 而RAGFlow在處理資料的時候會在短時間內發送大量的API請求,很容易就被rate limit限流。 既然直接連接LLM API會因為太多請求而被限流,我就試著改轉接到Dify上,並在API請求的時候加上排隊等候的機制。 Dify裡面雖然可以寫程式碼,但他其實也是在沙盒裡面運作的程式,還是有著不少的限制。 其中一個限制就是不能讓我直接修改系統上的檔案。 因此如果要在Dify內用程式讀寫資料,用HTTP請求傳送可能是比較好的做法。 這些做法花了很多時間調整。 調整了老半天,總算能夠讓它正常運作。 不過過了一陣子,LLM API連回應沒有反應了。 我猜想可能是連接的Gemini API已經超過用量而被禁止吧。 ---- 繼續閱讀 ⇨ 雜談:到底要怎麼使用RAGFlow呢? / TALK: RAGFlow Drained All My Resources https://blog.pulipuli.info/2025/03/talk-ragflow-drained-all-my-resources.html
0 notes
Link
看看網頁版全文 ⇨ 讓Dify使用自己管理的搜尋引擎:SearXNG / Let Dify Use My Self-Hosting Search Engine: SearXNG https://blog.pulipuli.info/2024/12/let-dify-use-my-selfhosting-search-engine-searxng.html 我在「自行架設大型語言模式應用程式:Dify」這篇講到我用SerpAPI作為Dify的搜尋引擎,但除了使用別人提供的API之外,我們也可以用SearXNG自行架設客製化的搜尋引擎,並將它跟Dify結合一起使用。 In the article "Self-Hosting a Large Language Model Application: Dify," I mentioned using SerpAPI as the search engine for Dify. However, besides using third-party APIs, we can also utilize SearXNG to set up a customized search engine and integrate it with Dify.。 ---- # SearXNG:可自訂的後設搜尋引擎 / SearXNG: A Customizable Metasearch Engine。 https://docs.searxng.org/。 SearXNG 是一個免費且開源的後設搜尋引擎(metasearch engine),它可以彙整來自超過上百種不同的搜尋服務(例如Google、Bing、DuckDuckGo等)的結果,讓使用者一次搜尋就能得到更全面的資訊。 SearXNG 實際上是從另一個開源專案 Searx 延伸出來的分支,並在其基礎上進行了改進和更新。 SearXNG 提供了一個簡潔易用的介面,讓使用者可以輕鬆地輸入關鍵字並快速得到搜尋結果。 除了基本的網頁搜尋之外,SearXNG 也支援圖片、影片、新聞、地圖等不同類別的搜尋,滿足使用者多元的搜尋需求。 使用者還可以透過設定偏好設定(preferences)來自訂搜尋引擎的行為,例如選擇想要使用的搜尋服務、設定搜尋結果的語言和地區等等,打造個人化的搜尋體驗。 https://searx.space/ 有別於其他的搜尋引擎服務,SearXNG 大多是使用者自行建置在私人伺服器的個體(instance)。 我們可以在 searx.space 找到許多公開的 SearXNG 執行個體,但更多時候,我們會需要用它架設一個私人使用的 SearXNG 執行個體,不僅讓自己完全掌控自己的搜尋資料,更可以作為Dify等其他系統的資料來源。 ---- 繼續閱讀 ⇨ 讓Dify使用自己管理的搜尋引擎:SearXNG / Let Dify Use My Self-Hosting Search Engine: SearXNG https://blog.pulipuli.info/2024/12/let-dify-use-my-selfhosting-search-engine-searxng.html
0 notes
Link
看看網頁版全文 ⇨ 雜談:時常脫落的電燈泡 / TALK: Lightbulbs That Frequently Fall Out https://blog.pulipuli.info/2025/03/talklightbulbs-that-frequently-fall-out.html 今天把電燈鎖緊,它亮了起來。 但過一段時間,它又鬆脫了。 ---- # 燈泡 / Light bulb 搬到新住處之後,讓我最苦惱的問題,是這裡的電燈泡時常自己脫落。 是的,自己脫落。 這裡不太常感覺到地震,我也確實有把電燈泡鎖緊到燈座上,但燈泡還是會在過一段時間後自然脫落。 大多時候碰一下就會暫時恢復。 有時候可能是燈泡鬆脫,需要轉回燈座上。 有時候就算在燈座上轉緊,燈泡也不會亮。 但過段時間再開燈時,他又正常點亮了。 ---- # 找不到線索 / No Clue Found。 在網路上找尋的過程裡,大多數說法是因為地震所導致的結果。 不過這些燈泡鬆脫的時間點好像跟地震沒有明顯的關聯,感覺可能性不高。 之前有工程的朋友說,這可能是熱脹冷縮導致燈泡脫離了燈座。 網路上這種使用說法的相關資料不多。 ChatGPT認為的確有可能,但他認為比較大的原因還是因為燈泡、燈座或線路等硬體不良所導致。 換燈座跟線路並不是馬上可以做到的事情,我下次可能先試試看換個燈泡好了。 ---- 沒想到燈泡還會有自然鬆脫的這種狀況,不知道大家有沒有遇過?你們會怎麽處理呢?求求網路大神賞我一些建議吧。 ---- 看看網頁版全文 ⇨ 雜談:時常脫落的電燈泡 / TALK: Lightbulbs That Frequently Fall Out https://blog.pulipuli.info/2025/03/talklightbulbs-that-frequently-fall-out.html
0 notes