エロゲ空を仰ぎて雲たかくアッチむいて恋ぜったい遵守☆強制子作り許可証!!風紀委員長 聖薇 ~あなたなんて大嫌い、死ねばいいのに~遊撃警官パトベセル黒獣Remel奴隷志願サイト~人妻・翔子の記録~CDクリスマス・コレクションズ music from SQUARE ENIX | SQUARE ENIXその他ハニージッポー
Don't wanna be here? Send us removal request.
Text
ファイルの関連付けについてメモ
ファイルを開こうとしたときの処理
ref. レジストリの直接編集によるファイルの拡張子と関連づけ - Glamenv-Septzen.net Application Registration - Win32 apps | Microsoft Learn Creating Shortcut Menu Handlers - Win32 apps | Microsoft Learn
Windows で名前を指定してファイルを開こうとした場合、以下の順番でファイルが探索される。
作業フォルダ
%WINDR%
%WINDR%\System32
%PATH%
レジストリの HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\App Paths
該当する実行ファイルが無い場合は、設定された関連付けを使ってファイルを開く(後述)。 関連付けが設定されていない場合は、ユーザーに実行ファイルを選ばせ、そのファイルに先ほど開こうとしたファイルの絶対パスを渡して処理しようとする。
ユーザーに実行ファイルを選ばせる際は候補を提示する。この候補は HKCR\Applications 以下から探索される。HKCR\Applications 内のサブキーは以下の構造をしている。
HKEY_CLASSES_ROOT Applications 実行ファイル名 (Default) = 表示名 shell (Default) = 実行するキー 実行キー1 command (Default) = 実行コマンド 実行キー2 command (Default) = 実行コマンド .... SupportedTypes 拡張子 = "" ...
開こうとしたファイルの拡張子と、HKCR\Applications\実行ファイル名\SupportedTypes の内容から候補が選定される。
関連付けの設定
関連付けの情報は HKLM\SOFTWARE\Classes および HKCU\SOFTWARE\Classes に格納される。 またこれらをマージしたものが HKCR に反映される(キーが重複していた場合は HKCU が優先される)。
ファイルが実行されると、シェルは HKCR の直下から該当する拡張子のキーを探し、その値を取得する。ここで取得した値を ProgID と呼ぶ。
次に HKCR\*ProgID* を探す。HKCR\*ProgID* の構造は上で示した構造の「実行ファイル名」以下とおおむね同じ。HKCR\*ProgID*\shell\(Default) は、コンテキストメニューの一番上に表示される名前が登録されている。
例えば .jpg ファイルの場合、
HKCR\.jpg の値 (ProgID) を取得する。自分の環境だと jpegfile になっていた。
HKCR\jpegfile\shell の値を取得する。自分の環境だと TFMassiGraOpen になっていた。画像ビューアとして MassiGra を使用しているため。
HKCR\jpegfile\shell\TFMassiGraOpen\command の値を取得し実行する。
という流れになる。
0 notes
Text
WSL2 の ubuntu で libaacs とかを Windows 向けにクロスコンパイルする
mpc-hcでも使えると聞いたので。
# ref. Windows 10 パソコンでブルーレイを無料で再生する方法 (日向坂46の Blu-Rayを買ったので Blu-Rayの再生環境が必要になりました、Leawo、VLC libaacs.dll、MKBv71) # http://www.neko.ne.jp/~freewing/software/windows_10_free_blu_ray_player/ sudo apt install build-essential gettext automake libtool flex bison sudo apt install mingw32 mingw32-runtime mingw32-binutils mingw-w64-tools gcc-mingw-w64-x86-64 g++-mingw-w64-x86-64 mkdir -p aacs/.build cd aacs curl https://www.gnupg.org/ftp/gcrypt/libgpg-error/libgpg-error-1.45.tar.bz2 | tar xvj curl https://www.gnupg.org/ftp/gcrypt/libgcrypt/libgcrypt-1.10.1.tar.bz2 | tar xvj git clone https://code.videolan.org/videolan/libaacs.git git clone https://code.videolan.org/videolan/libbdplus.git BUILD_DIR=$(pwd)/.build # libgpg-error のビルド・インストール cd libgpg-error-1.45/ ./autogen.sh --build-w64 --prefix=${BUILD_DIR} --disable-doc make && make install cd ../ # libgcrypt のビルド・インストール cd libgcrypt-1.10.1/ ./autogen.sh --build-w64 --prefix=${BUILD_DIR} --with-gpg-error-prefix=${BUILD_DIR} --disable-doc make && make install cd ../ # libaacs のビルド・インストール cd libaacs/ ./bootstrap aclocal -I${BUILD_DIR}/share/aclocal automake autoconf ./configure --host=x86_64-w64-mingw32 --prefix=$BUILD_DIR --with-gpg-error-prefix=$BUILD_DIR --with-libgcrypt-prefix=$BUILD_DIR make && make install cd ../ # libbdplus のビルド・インストール cd libbdplus/ ./bootstrap aclocal -I${BUILD_DIR}/share/aclocal automake autoconf ./configure --host=x86_64-w64-mingw32 --prefix=$BUILD_DIR --with-gpg-error-prefix=$BUILD_DIR --with-libgcrypt-prefix=$BUILD_DIR make && make install cd ../ # 不要なシンボルを落とす strip .build/bin/* cp .build/bin/*.dll ./ mv libaacs-0.dll libaacs.dll mv libbdplus-0.dll libbdplus.dll
0 notes
Link
AMDではキャンペーンの効果を確かめるために、Focus Group(一般の人に何人か集まってもらい、目的を伝えずに答えてもらうマーケット・リサーチの手法)をやった。手順は以下の通りである。
無作為に選ばれた一般の人に集まってもらう(いくらかの謝礼を渡す)。リサーチの目的は説明しない。ただこれからCMを見せますのでその後の質問に答えてくださいとだけ言う。
インテルインサイドを採用した複数のPCメーカーのPCのテレビ広告を見せる。
簡単な質問をする A) 何の宣伝かわかりましたか? B) 宣伝を見た後覚えているブランドを挙げてください
このリサーチでは驚くべき結果が得られた。複数のPCメーカーが流すCMを流すのであるから、NEC,富士通、ソニー、IBMと言ったPCブランドが連呼されるCMを聞かされているにもかかわらず、被験者の大多数が。
パソコンの広告ですね
インテル…かな~
と答えたのだ。この結果は我々に大きな衝撃を与えた。広告主がパソコンメーカーであるにもかかわらず、各CMに最後に挿入される“インテル入ってる、タンタンタンタン"と言うエンディングが共通の認識になっていたという事である。インテルの目的は見事に達成されたという事だ。
0 notes
Link
Harajuku_Lolita Everything I do leads to hentai
1 note
·
View note
Link
オンラインエディタ Medium.com で、ポーランド語の「Ś」だけが入力できないバグがあった、という話。
これらを総合して、今回のバグの原因が明らかになった。
歴史的経緯により、ポーランドの人々は Ś を入力するのに右Alt+Sを使っている。
曖昧な技術的決定のため、右Alt+Sは内部的にCtrl+Alt+Sにマップされる。
習慣的にCtrl+Sはドキュメントの保存に使われる。
Ctrl+Sが押されたとき、Mediumはブラウザの保存ダイアログをキャンセルしようとする……Śの入力だとは思わずに。
1 note
·
View note
Text
Lambda Labs で Stable Diffusion web UI を起動してアクセスするまで
Lambda Labs で Stable-diffusion web UI を立ち上げて外部からアクセスできるようにする。
セキュリティはどうしたらいいんじゃろ。
とりあえず A100 (gpu_1x_a100_sxm4) インスタンスで動作を確認した。
sudo apt -y update && sudo apt -y upgrade # /data にインストールする。 sudo mkdir /data sudo chmod 777 /data install_dir=/data bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh) # xformers のインストール cd ./stable-diffusion-webui/ source ./venv/bin/activate pip install triton==2.0.0.dev20221120 ninja # torch を入れ直す。 pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116 pip install -v -U git+https://github.com/facebookresearch/xformers.git@main#egg=xformers deactivate # 起動用にスクリプトを作っておく。 # 一応Gradio側でユーザー名とパスワードを設定しておく。 cd ../ cat <<EOS2 >run-sd #! /usr/bin/env bash cd /data/stable-diffusion-webui source venv/bin/activate python3 launch.py --xformers --gradio-auth user:password --listen EOS2 sudo chmod 777 run-sd EOS ./run-sd
0 notes
Text
EC2 で Stable Diffusion web UI を起動してアクセスするまで
EC2で Stable-diffusion web UI を立ち上げて外部からアクセスできるようにする。
EC2側でインバウンドIPアドレスの限定するなど別途セキュリティ対応は必要。
# OSはUbuntu22.04 # /data にインストールする。 sudo mkdir /data sudo chmod 777 /data cd /data # CUDA の準備:今回は 11.7 を入れる。 wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600 wget https://developer.download.nvidia.com/compute/cuda/11.7.0/local_installers/cuda-repo-ubuntu2204-11-7-local_11.7.0-515.43.04-1_amd64.deb sudo dpkg -i cuda-repo-ubuntu2204-11-7-local_11.7.0-515.43.04-1_amd64.deb sudo cp /var/cuda-repo-ubuntu2204-11-7-local/cuda-*-keyring.gpg /usr/share/keyrings/ sudo apt update sudo apt -y install cuda-drivers sudo apt -y install cuda # cuda-driver だけでなく cuda も入れないと xformers のインストールが失敗する。 # Stable-diffusion web UI のインストール sudo apt install wget git python3 python3-venv python3-dev install_dir=/data bash <(wget -qO- https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh) # xformers のインストール cd ./stable-diffusion-webui/ source ./venv/bin/activate pip install triton ninja pip install -v -U git+https://github.com/facebookresearch/xformers.git@main#egg=xformers deactivate # 起動用にスクリプトを作っておく。 # 一応Gradio側でユーザー名とパスワードを設定しておく。 cd ../ cat <<EOS2 >run-sd #! /usr/bin/env bash cd /data/stable-diffusion-webui source venv/bin/activate # ユーザー名:user # パスワード:password python3 launch.py --xformers --gradio-auth user:password --listen EOS2 sudo chmod 777 run-sd EOS ./run-sd
0 notes
Quote
Twitterのオーナーが変わったので、俺がやるように業務命令された当時のTwitterがやろうとしていた非倫理的なことについてそろそろ話してもいいだろう。 Dick Costoloが追放されて、Jack DorseyがパートタイムCEOとしてやってきた2015-2016年頃。Twitterは死にかけていて買収先を探していた。FacebookもGoogleも買収は断った。 当時のTwitterは潰れる寸前だった。2016年の大統領選挙のおかげで息を吹き返したようなものだ。でも俺は辞めることになった。 当時の俺はTwitterで、新興地域(ブラジル、インド、ナイジェリアなど)でTwitterがうまく動くようにしていた。スマフォ周りの改善で、表向きではない仕事だ。帯域節約とか、メモリー消費量削減とか、バッテリー消費量削減といったことだ。 そういえばアプリサイズなんてものもあったな。Twitterはスマフォアプリのサイズを10MB以下にするよう努力していた。自腹で100MBのアプリの転送量を無料にできるFacebookと違ってTwitterにはカネがなかったのだ。Twitterが動画機能を追加したとき、この10MB制約はどうでもよくなってしまったが。 俺がやっていた仕事にスマフォアプリのログアップロードがあった。よそのスマフォアプリと同様に、Twitterはユーザーのすべてを記録していた。スワイプ、タップ、編集、遅延、あらゆるものをデバッグ、メトリクス、実験のために記録していた。ログのサイズは大きい。 アプリでは、HTTPレスポンスは圧縮されていたが、リクエストは圧縮されていなかった。ログの圧縮率は高い。そこで俺はgzip HTTPリクエストするように変更して、ログを受け取るサーバー側でもしかるべく対応した。これによりスマフォアプリの帯域消費量は40%減った。めちゃくちゃだな。 そういうわけで、俺は社内でスマフォログの第一人者になっていた。そのために俺は営業の戦略会議に呼び出されることになった。Twitterは当時死ぬ寸前であり、カネを必要としていた。とある巨大通信事業者が、北米におけるログの頻度データにカネを払う話が持ち上がっていた。 俺の計画は、頻度をキャリアとロケーションで集計するというものだった。俺はデータサイエンティストと協力して、他のデーターソースと照合しても匿名性を保つ適切な粒度(最小エリアサイズとエリア内の区別可能なユーザ数)を検討した。differential privacyと呼ばれるやつだ。 このデータを某通信事業者に送ったところ、データは約立たずだと返してきやがった。奴らは要求を変えて、自分のところの顧客が何人、競合他社の店に入ったかを知りたいと伝えてきた。どうもきな臭いが、まだギリギリでプライバシーに配慮した匿名化ができる範囲だろうか? そうこうしていろんなデータを某通信事業者に送ってみたものの、奴らはまだ満足せず文句たらたらで、営業も文句たらたらだった。そこで俺は某通信事業者の本社に行って、本当にほしいデータは何なのか聞いてくるよう命じられた。奴らの要求はめちゃくちゃだった。 俺はその通信事業者のやたらハッスルした部長とやらと面談することになったわけだ。部長の言うことには「我々がほしいデータというのは、ユーザーが自宅を出た時刻、通勤経路、一日の移動情報のすべてだ。少しでも情報が欠けたデータは約立たずだ。他のIT企業からはもっと多くのデータの提供を受けているのだよ」 俺は「できるわけねえだろクソが」をオブラートに包んだ返事をした。俺がそんな粒度でユーザーを特定なロケーションデータを売る世界線はねえよ。社内会議が頻繁に行われた。法務部は合法だと主張した。曰く、利用規約には反していない、と。 通常ならば、他のエンジニアに作業させるところだが、うちの部署の人間は全員プライバシー上の懸念を理由に拒否した。当時のTwitterはレイオフをしたばかり(歴史は繰り返す)で、他にできそうなエンジニアはいなかった。 うちの部署はレイオフの影響を受けなかったが、半分ぐらいは自発的に辞めた。Twitterは大量離職祭りのさなかだったのだ。俺はやれるだけのことはやったが、Twitterはまともに仕事ができる職場ではなくなっていた。そこで俺は祭りに便乗して辞めることにし、この話を打ち切った。 そういえばこんなこともあった。この話の最中に上司が変わり、極めて印象深い発言をした。「トラックにカネを詰め込んでお前にぶちまけたら、実装してくれるか?」 俺はなんと答えたらいいのかわからなかったが、そんなことで俺を揺さぶれると思うなよ。 俺のTwitterでの最後のメールはJack宛で、Jackは素早く返信し、「ちょっと誤解がないか調べてみるわ。そんなことうちはしないはずだ」という感じの内容だった。本件はJackの手に渡った。 俺の知る限り、プロジェクトは中止されたはずだ。Jackはこの話を気に入らなかったのだ。この思想をTwitterの新しいオーナーも持ち合わせているかどうかは知らん。俺の見立てではイーロンがデータを手に入れたらもっとヤバイことをするはずだな。 Twitterにまだいる社員に告ぐ。お前個人の拒否権はバカにしたもんじゃないぞ。常に効果的なわけでもないし、直訴とか告発しなけりゃならんこともあるし、クビになったりもするだろうが、個人の拒否権というのは用意しておくべき武器なのだ。
Twitterが2015年に行おうとした非倫理的なこと
0 notes
Text
EC2のUbuntuでTensorflowを開始するまでのレシピ
メモ
OSはUbuntu20.04を選ぶ。TensorRTが22.04未対応のため
sudo apt update sudo apt upgrade # NVIDIAのパッケージにアクセスできるようにする wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pin sudo mv cuda-ubuntu2004.pin /etc/apt/preferences.d/cuda-repository-pin-600 wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-keyring_1.0-1_all.deb sudo dpkg -i cuda-keyring_1.0-1_all.deb sudo apt update sudo apt install cuda-toolkit-11-6 sudo apt install cuda=11.6.2-1 sudo apt install libcudnn8 sudo apt install libcudnn8-dev # 事前に scp で送っておいた TensorRTのパッケージをインストール sudo dpkg -i nv-tensorrt-repo-ubuntu2004-cuda11.6-trt8.4.3.1-ga-20220813_1-1_amd64.deb sudo apt-key add /var/nv-tensorrt-repo-ubuntu2004-cuda11.6-trt8.4.3.1-ga-20220813/c1c4ee19.pub sudo apt install tensorrt tensorrt-dev tensorrt-libs sudo ln -s /usr/lib/x86_64-linux-gnu/libnvinfer.so /usr/lib/x86_64-linux-gnu/libnvinfer.so.7 sudo ln -s /usr/lib/x86_64-linux-gnu/libnvinfer_plugin.so /usr/lib/x86_64-linux-gnu/libnvinfer_plugin.so.7 # tensorflow_graphics用のパッケージも入れておく sudo apt install python3.8-dev sudo apt install libopenexr-dev
0 notes
Text
WSL2 の import / export
Cドライブがいっぱいになったので WSL2 の仮想ディスクを移動しようと思ったら --import でエラーが発生した。Unspecified Error とのこと。
関連issue: WSL --import returns Unspecified error
untar がこけてるように見える。展開しようとした Ubuntu.tar は 50GB 弱。 上記 issue に書いてあることを試したが全部ダメだったので、再インストールしたうえで、色々と導入する前に --import / --export を試すことにした。
再インストールから import / export まで
wsl --install -d Ubuntu
デフォルトのユーザ名とパスワードを入力する。
エクスポートする。wsl --export Ubuntu D:\wsl\Ubuntu.tar
仮想ディスクのインストール先を用意する。mkdir D:\wsl\Ubuntu
インポートする。wsl --import Ubuntu D:\wsl\Ubuntu D:\wsl\Ubuntu.tar --version 2 そういえば事前に wsl --set-default-version 2 ��実行済みだった(上記 issue の中で行っていた)。無事インポートできた。
一度ログインしてみると root だった。そのままログアウトして wsl --shutdown
root のままだとイヤなのでデフォルトユーザを変更する。まず wsl -d Ubuntu -u <user> -e id -u として UID を取得する。<user> は 2 で入力したユーザ名。
次にレジストリを変更する。HKEY_CURRENT_USER\Software\Microsoft\Windows\CurrentVersion\Lxss\ の下に {<guid>} というキーがある。多分これはWSLにインストール済みの distro ごとにある。その中の Ditribution = Ubuntu となっているキーを探して、DefaultUid を先ほど取得した UID に変更する。
もう一度ログインすると 2 のユーザでログインできた。
参考にしたサイト:
WSL上のLinuxをCドライブから移動させる
WSLでimport、export、デフォルトユーザー名を変更
なお上のサイトには「起動時にデフォルトユーザを指定しても、ターミナル起動時のカレントディレクトリがホームディレクトリでない」と書いてあるが、今はきちんと /home/<user> がカレントディレクトリとして設定されるっぽい。
その他設定
Windows 側の PATH が WSL2 側に引き継がれていることに気づいた。これは気持ちが悪い。以下を参考に設定を変更した。/etc/wsl.conf を作成して
[interop] appendWindowsPath = false
とした。
WSL2でWindowsのPATH設定が引き継がれるのを解除する
0 notes
Text
WSL2でCUDAを有効にするまで
環境
Win10 21H2 (x86_64)
GPU: GeForce GTX 1650
ドライバー: 512.15
Windows側にCUDA Toolkit 11.6をインストール済み
$ nvcc --version nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2021 NVIDIA Corporation Built on Fri_Dec_17_18:28:54_Pacific_Standard_Time_2021 Cuda compilation tools, release 11.6, V11.6.55 Build cuda_11.6.r11.6/compiler.30794723_0
WSL2のインストール
コマンドプロンプトを管理者権限で開いて
$ wsl --install
ストアで Windows Terminal をインストールする
再起動後、自動でUbuntuのインストールが開始された。
rootアカウントを設定すると準備完了。
$ uname -r 5.10.16.3-microsoft-standard-WSL2 $ cat /etc/lsb-release DISTRIB_ID=Ubuntu DISTRIB_RELEASE=20.04 DISTRIB_CODENAME=focal DISTRIB_DESCRIPTION="Ubuntu 20.04.5 LTS"
Ubuntuのセットアップ
$ sudo apt update $ sudo apt upgrade
pythonの設定
python3.8がインストールされていた。pythonにシンボリックリンクを貼った。あとpipとvenvを使えるようにした。
$ python --version python: command not found $ python3 --version Python 3.8.10 $ sudo ln /usr/bin/python3 /usr/bin/python $ sudo apt install python3-pip $ sudo apt install python3.8-venv
cuda toolkit と cuda のインストール
# この辺を参考にした。 # https://learn.microsoft.com/ja-jp/windows/wsl/tutorials/gpu-compute # https://qiita.com/ksasaki/items/ee864abd74f95fea1efa#cuda-toolkit-%E3%81%AE%E3%82%A4%E3%83%B3%E3%82%B9%E3%83%88%E3%83%BC%E3%83%AB $ wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin $ sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600 $ curl -s -L https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu-keyring.gpg | sudo apt-key add - $ sudo add-apt-repository "deb https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/ /" $ sudo apt update # apt search cuda でインストールするバージョンを確認しておく $ sudo apt install cuda-toolkit-11-6 # sudo apt install cuda=11.6.2-1
cudaの動作確認
$ git clone https://github.com/NVIDIA/cuda-samples.git $ cd cuda-samples/Samples/1_Utilities/deviceQueryDrv/ $ make && make run ./deviceQueryDrv Starting... CUDA Device Query (Driver API) statically linked version Detected 1 CUDA Capable device(s) Device 0: "NVIDIA GeForce GTX 1650" CUDA Driver Version: 11.6 CUDA Capability Major/Minor version number: 7.5 Total amount of global memory: 4096 MBytes (4294508544 bytes) (14) Multiprocessors, ( 64) CUDA Cores/MP: 896 CUDA Cores GPU Max Clock rate: 1725 MHz (1.73 GHz) Memory Clock rate: 6001 Mhz Memory Bus Width: 128-bit L2 Cache Size: 1048576 bytes Max Texture Dimension Sizes 1D=(131072) 2D=(131072, 65536) 3D=(16384, 16384, 16384) Maximum Layered 1D Texture Size, (num) layers 1D=(32768), 2048 layers Maximum Layered 2D Texture Size, (num) layers 2D=(32768, 32768), 2048 layers Total amount of constant memory: 65536 bytes Total amount of shared memory per block: 49152 bytes Total number of registers available per block: 65536 Warp size: 32 Maximum number of threads per multiprocessor: 1024 Maximum number of threads per block: 1024 Max dimension size of a thread block (x,y,z): (1024, 1024, 64) Max dimension size of a grid size (x,y,z): (2147483647, 65535, 65535) Texture alignment: 512 bytes Maximum memory pitch: 2147483647 bytes Concurrent copy and kernel execution: Yes with 6 copy engine(s) Run time limit on kernels: Yes Integrated GPU sharing Host Memory: No Support host page-locked memory mapping: Yes Concurrent kernel execution: Yes Alignment requirement for Surfaces: Yes Device has ECC support: Disabled Device supports Unified Addressing (UVA): Yes Device supports Managed Memory: Yes Device supports Compute Preemption: Yes Supports Cooperative Kernel Launch: Yes Supports MultiDevice Co-op Kernel Launch: No Device PCI Domain ID / Bus ID / location ID: 0 / 1 / 0 Compute Mode: < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) > Result = PASS
cuDNN のインストール
# Ubuntu用のを使うことにする。 $ curl -s -L https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004-keyring.gpg | sudo apt-key add - $ sudo add-apt-repository "deb https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/ /" $ sudo apt update # apt search cudnn でインストールするバージョンを確認しておく $ sudo apt install libcudnn8 # sudo apt install libcudnn8-dev
TensorRT ライブラリのインストール
$ sudo apt install libnvinfer8 $ sudo apt install libnvinfer-plugin8 $ sudo ln /usr/lib/x86_64-linux-gnu/libnvinfer.so.8.4.3 /usr/lib/x86_64-linux-gnu/libnvinfer.so.7 $ sudo ln /usr/lib/x86_64-linux-gnu/libnvinfer_plugin.so.8.4.3 /usr/lib/x86_64-linux-gnu/libnvinfer_plugin.so.7 # こんなことしていいのかは分からない。 # ダメなら https://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1804/x86_64/ にあるのを使う。
tensorflow で GPU が使えているか確認
$ mkdir test && cd test $ python -m venv test $ source test/bin/activate (test) $ pip install tensorflow (test) $ python -c 'from tensorflow.python.client import device_lib; device_lib.list_local_devices()' ...snip... 2022-09-23 00:01:43.008146: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1616] Created device /device:GPU:0 with 2101 MB memory: -> device: 0, name: NVIDIA GeForce GTX 1650, pci bus id: 0000:01:00.0, compute capability: 7.5 (test) $ deactivate
clip.exe が使いたい
echo 'alias clip=clip.exe' >>.bashrc
よかったよかった
0 notes
Link
643:非通知さん@アプリ起動中:2021/01/18(月) 23:43:18.61 ID:EafZ4YHa0.net
プレイヤー側が強くなるほど効率が上がって作業密度が濃くなってキツくなる 産業革命かよ
0 notes
Link
意訳
2Bのケツのポリゴン数は時オカの全ポリゴン数より多い。
Paril101
残念ながらそうじゃない。彼女の尻は頂点数650、1195ポリゴンでしかない——うん、ぼくは確認したんだ。比較のために言っておくと、時オカの子供リンクはだいたい400ポリゴンだ。子供リンクは2Bの尻の1/3でしかない……最近のお気に入りの単位だ。
0 notes
Quote
p. 100 「わしを、おだてればその気になる若様みたいに扱わないでくれ。死に方くらいは見栄を張りたいが、実体のない誇りを支えに生き続けるほど、阿呆なまねはできない。かつてのものが何一つ残っていないことくらい承知している」
荻原規子, "あまねく神竜住まう国", 2018/9/15(初版)
0 notes