2024年11月13日水曜日

ドラゴンクエストウォーク、バイキルトなしロマン砲

ドラゴンクエストウォーク、バイキルトなしロマン砲

やり方忘れないようにメモ
将来的にはもっとお手軽にできるワンパンが登場するでしょう

動画

最後に守り人が混乱して「おうえん」を打ててないですが 50 万以上のダメージが出ているので「おうえん」があれば 70 万以上も期待できると思います

ポイント

最終的にはニンジャが以下のようになっていればOKです

  • 攻撃二段階アップ
  • 超きあいため
  • 会心必中 (クシャラミ共有)
  • おうえん
  • 威圧強三段階

この状態で大海の浪漫を打つだけです

期待ダメージ

直撃が来るか来ないかは運次第ですが40万から70万くらいまでのダメージは期待できます

超越の闘志などバフ/デバフの盛り方によってはもっと期待できると思います

流れ詳細

1ターン目

  • ニンジャ -> 超越 or ひかりのたま or ルカニ
  • 天地雷鳴士 -> ルカニ
  • 大神官 -> アンコール -> 守り人 -> バイシオンをニンジャ or 心配なら先にまもりのため
  • 守り人 -> バイシオンをニンジャ or 心配なら先にまもりのため

2ターン目

  • ニンジャ -> 鬼殺し
  • 天地雷鳴士 -> まもりのたて or メタルキングガード
  • 大神官 -> 回復 or まもりのたて or バイシオンまだならここで
  • 守り人 -> まもりのたて or バイシオンまだならここで

3ターン目

  • ニンジャ -> 超気合ため
  • 天地雷鳴士 -> クシャラミをニンジャ
  • 大神官 -> アンコール -> 天地雷鳴士 -> メタル超会心
  • 守り人 -> おうえん

4ターン目

  • ニンジャ -> 大海の浪漫

2ターン目は割と自由に動けるので1ターン目のダメージ具合に応じて臨機応変に対応してください

パーティ詳細

武器/防具

必須なのは

  • ニンジャ -> 銀河の剣
  • 天地雷鳴士 -> メタルキングの剣

です
他2名はバイキルトやラッキータロットを持っていれば絶対そっちのほうがいいです
タンバリン or 円月輪があればそちらのほうがダメージを伸ばせます

防具とこころはアタッカーのニンジャ意外、基本的に耐性盛りで OK です
ニンジャはダメージ覚悟でいきます

今回紹介している動画はりゅうおうなのでりゅうおう耐性のある武器を多めに入れていますがこのあたりは対戦するメガモンに合わせて属性なり変更してください

守り人

天地雷鳴士

大神官

ニンジャ

こころ

必須なのは

  • 天地雷鳴士 -> ルカニが使えるこころ
  • ニンジャ -> 大海の浪漫のダメージが上がるこころ

あたりです

こちらも基本的にはアタッカーはダメージよりでそれ以外の3名は耐性よりにすれば OK です

メガモンに合わせて属性などを変更しましょう

守り人

天地雷鳴士

守り人

ニンジャ

最後に

ぷにぷに肉球ロッド or しんぴの水晶がもっと楽に立ち回れると思います
自分はもっていないのでバイシオン + アンコールで代用している感じです

ボクはまだドラゴンクエストウォークをやっています

2024年9月26日木曜日

ヒゲの脱毛をしました

ヒゲの脱毛をしました

毎週剃るのが面倒なので
そしてたけー

どこで

  • ゴリラクリニック

料金

  • 合計 59,800円

内訳

  • ヒゲ3部位6回 39,800円
  • 麻酔6回 20,000円
  • その他交通費 2,400円

本当はヒゲ3部位3回というのが16,800円だったのでそれにしようと思ったのですが麻酔が使えないので泣く泣く6回にしました

施術期間

  • 1回目 -> 2024/01/24
  • 2回目 -> 2024/03/15
  • 3回目 -> 2024/05/08
  • 4回目 -> 2024/06/20
  • 5回目 -> 2024/08/01
  • 6回目 -> 2024/09/12

ゴリラクリニックでは最低でも6週間開けないとダメなようです

施術について

  • マシンが2種類があるがどっちも結構痛い
  • 麻酔しないともっと痛いらしいが麻酔しててもいたい
  • 施術時はアイマスクして笑気麻酔してあとは機械を当てるだけ
  • 初回はカウンセリングもあるので1時間から2時間ほどかかる
  • 2回目以降は施術だけなので30分程度で終了

効果

1回目

  • 一回目ではそれほど効果は見えず
  • 施術後はヒゲは一度もそらずに放置
  • 10日目から洗顔時に少量のヒゲが手のひらにポロポロと付き始める
  • 特によく取れたのは顎下で顎髭は全然ポロポロ落ちなかった
  • ただ軽く触ってくらいでは全然ポロポロとは落ちない
  • 施術後から18日伸ばし続けた感じは以下の通り (あまりひげの量は変わらない)

2回目

  • レーザーをYAGレーザーに変更した
  • 二回目でもそれほど効果は見えず
  • 施術後はヒゲは一度もそらずに放置
  • 10日くらいから濃いヒゲ部分にもポロポロがきた
  • 施術後から14日伸ばし続けた感じは以下の通り (伸ばした期間が前より短いのでちょっと薄くなった気はする)

3回目

  • YAGレーザー
  • 今回から YAG レーザーのタイプが変わったらしい、強度も一段階アップ
  • 施術後から14日伸ばし続けた感じは以下の通り (伸ばした期間が前より短いのでちょっと薄くなった気はする)
  • このあたりで気付いたが自分のポロポロ期は9日から12日くらいピークらしい
  • あんまり2回目と変わっていない

4回目

  • YAGレーザー
  • 施術後から14日伸ばし続けた感じは以下の通り
  • ポロポロ期は9日から12日
  • ただ鼻下は全く抜けずに顎下だけ抜けた、鼻下は抜けづらいのだろうか
  • このあたりで気付いたがポロポロ取れる髭はある一定の長さより伸びない
  • 今回は結構無理に抜いたのもありキレイに見えてしまう

5回目

  • YAGレーザー
  • 4回目と同じ感想
  • 1回目から見比べると確かに効果がありそうな感じはある

6回目

  • YAGレーザー
  • 適当に手動で抜いてます

やり取りや予約について

  • 意外とアナログで電話や紙ベースでのやり取りがメイン
  • 初診時に契約書を書かされるが全部紙
  • 予約やキャンセルも基本電話、次回予約は施術後にも可能なので基本は施術後に次回予約もしたほうが楽
  • 初回の申し込みだけ Web から
  • アカウント登録などしないのでログインして履歴確認とかができない

感想

6回やって約半年から1年ほど通いました
おそらく効果はあったんだと思いたいです
ただ完全に生えないわけではないので結局ひげ剃りは続けなければダメなようです

たまにはこんな感じで自分に投資するのもいいのかもしれません

もし続きをやったら別記事で記録しようと思います

2024年9月19日木曜日

クレーンゲームおじさん

クレーンゲームおじさん

ギャンブルに通づるおもしろさがある (自論
お金があれば確かに何でも取れるかもしれないがご利用は計画的に

使用した金額と獲得した景品数

  • 金額 -> 81500円
  • 景品数 -> 137個
  • 単価 -> 594.9円

景品数のカウントは大きなぬいぐるみやフィギュアから小さなぬいぐるみ、お菓子までいろいろあり、どんな景品でも1つとしてカウント (100円で複数取れるお菓子は1つとしてカウント)

ゆえに1つの景品に3000円くらいかかったこともあり (さすがに3000円以上を1つの景品に使ったことはない)

獲得した景品の一部紹介

クレーンをやるにあたって大事なことを先に

取れる台を見極める力が一番大事

  • この景品とこの台の設定なら取れそうだと見極められるか
  • 見極められるかは正直「経験」しかない
  • 取れない台はいつまでたっても取れない
  • 厳密に言うと確率が来るまで取れない (確率が来ても取れないこともあるようだが)
  • 取れないときにどうするか考えることが大事
    • 撤退 or 意地になって続けるか
    • 店員さんに相談するか (初期位置、状況説明など
    • ほしい景品が他の店にもあるならそっちで取る
    • どうしてもほしいなら買う
  • お試しに一回プレイするのは大事
    • アームの開き、強さ、押しの強さ、ねじれ、移動制限、下降制限の確認
    • 以下に記載のお店の傾向を掴む
  • 新景品はとりづらい (お金が必要になる)
  • 処分台を見極める

お店の傾向を掴む

  • 設置してある台の傾向 (橋渡しなのか末広なのかペラ輪なのかベタ棒なのかBリングなのかなど
    • 同一の景品でも別設定で置いている場合がある
    • どっちがより取りやすいかの判断
  • 三停止が使えるか
  • 全体的なアームの強さ
  • シールドの高さ、配置
  • 確率以外で取れそうか
  • ハウスルール
    • 平行移動
    • 初期位置
    • ゲット判定

店員さんを使う

  • 使いすぎ注意
  • 初期位置にしたいときは遠慮せずに使う
  • 平行移動ができればしてもらう
  • B リング系などでアームが入らない状態になったらリングをまっすぐにしてもらうとかできるお店ならやってもらう
  • アシストは期待しないこと (アシストランプが付けば別

筐体のクセや特徴を掴む

  • クレナは押しが強い (ときが多い
  • UFOキャッチャーシリーズはどっちかにねじれる (ときが多い
  • トリプルクレーンはぐるぐるが使える (ときが多い
  • グリーンランプがある
  • 三停止が使える

などなど筐体によって特徴があるのである程度把握しておくと良い

学習する

  • Youtube に腐る程クレーンゲーム実況者の動画があるので見て学ぶ
  • 台の種類や特徴、確率機かどうかなど (正確な情報はお店しかわからないので傾向や特徴を掴む)
  • 景品に対する取り方 (技) を覚える
    • 例えば箱なら「タテハメ」「ヨコハメ」など
    • ぬいぐるみなら「寄せ」「タグ」など

景品タイプごとの自分なりのポイント

ぬいぐるみ

  • させるところがとにかくひたすらあればさす
  • タグや紐、縫い付けてある腕の隙間や洋服の隙間など
  • 自力で取れないケースが多い
    • 3本詰め + ツルツル系 (引っ掛けるところがない) ぬいぐるみ
    • タグや紐がゴムなどで止めてある
  • 長いぬいぐるみはどちらからを寄せて来てシールドにかけて落とす
  • 寄せてシールドに乗ったら逆を上げて落とす、そのときできれば重いほうがシールドに乗っているほうがいい
  • 3本爪のぐるぐるアタックは有効ではあるが正直使えないケースが多いのと普通にやったほうが取れるケースもあるので自分はあまり使用しない
  • ぐるぐるは縦でやるほうがいい
  • ぬいぐるみのBCは基本ないが取れちゃうケースもあるのでトライする価値はあり

  • たてはめ、よこはめ
  • 回してはめる、はずしてはめる
  • 奥のバーに滑り止めがない場合はずりあげ
  • お菓子の丸い箱同士が重なっているやつは常に同じ側のアームで低くなったところはつかずに高いところをつく

好きな筐体

基本的には自力ゲット (作業ゲー) できる台は全部好きです

アラカルト

  • タイミングゲー
  • 取りたい景品の位置によってアームの下げ幅が違うことがあるので注意
    • 例えばポチが長いところがアームもいっぱい下がるがポチが初めから短いところはアームも下がらないなど
  • アームの上下左右スピードは筐体依存ではなくお店の設定依存なのでプレイして確認する必要がある
  • アームが下がりきったあとで景品に引っかからないようにアームが少し上がる場合がある (たぶん設定?
  • タイミングさえ掴めば再現性でガンガン取れる
  • 上下のコツは目線を景品の高さに合わせブラさないこと
  • 上に上がってくるアームと景品は必ずどちらも視界に入るようにする (少し斜めから見るといい)
  • 一番下の段などは膝をついて目線をぶらさないのもあり
  • 左右のコツは景品のポチ部分を正面から見ること
  • 左右の場合は爪がポチに入るイメージをすることが大事
  • 上下も左右も景品とアームが近ければ近いほど簡単なので景品が移動できるならアームの近くにおいてもらうこと

ボール転がし

  • 最初はどちらかのアームで寄せて転がす
  • アームで転がせなくなったら逆アームでボールを頂点付きして落とす
  • 最初の段階でボールが転がらない、動きが弱い場合
    • あっさり撤退
    • 寄せ方をもう少し変える (寄せ甘めのほうが動く場合もあり
    • バーと干渉させるようにアームを入れる
  • ボール転がしにおけるバー干渉は結構重要で最後の押しのときもアームをバー干渉させて強制的にボールを動かすことで取れることがある
  • ボール転がしは基本的に大きめの景品が入ることがあるので通常の設定で取れないがボール転がしで同じ景品がある場合はボール転がしのほうが安く取れることがある

Bリング

  • 初期からだとかなり手数を要するケースが多いので注意
  • 基本はアームギリ寄せを攻め続ければなんとかなる
  • できればリングの外側にアームを落とす
  • 交互にやっていけば OK だが場合によっては片側を集中的に攻めるのも OK
  • 両アームあるのであれば逆側のアームで直接 B リングの頂点を突くのも有効
  • ベタ棒、ベタボールのケースがあるがどっちも同じ印象
  • ボール転がし同様 B リングにほしい景品がある場合は B リングを選択するのもあり

わりと取りやすいと感じた筐体

ミニクレーン全般 (ジェミニなど

  • ミニクレーンは普通の筐体に比べて天井が低め(約1000円) なので天井意識もかなり大事
    • もちろんミニでも最新の景品などはもっと天井が高いことは余裕であるので注意
  • 三停止があるかないかが重要、ないと自力はほぼ厳しいかも、ひっかけられるところがあれば別
  • ゴム爪があるかどうかも重要
  • ぐるぐるは使ってもいいが自分はミニクレーンはほとんどぐるぐるは使わない

ゲッタースピン

  • 目印とタイミングを決めてそこから調整
  • 押せなくても引っかかった反動で落ちることもある
  • 基本お菓子
  • お菓子がモリモリに持ってあるほうがいい
  • 2段が基本だが3段あるとより取れる

地雷だった組み合わせ

  • つるつる系景品全般
  • おかし+ベタ棒
  • 橋渡し+ひし形置きおお菓子
    • 下カド取れればワンチャンだがそれなら素直にまっすぐ置きの橋渡しで BC を狙うほうがいい

最後に

自分はほしい景品を取りにクレーンはしていないので景品は何でもとります
その中でもぬいぐるみが一番多いかもです

10万円分くらい練習するばたぶん取りたい景品で取れない景品がなくなるくらいの実力にはなるかなと思います

クレーンの前では熱くなりがちですが心は常に冷静でいましょう

2024年9月7日土曜日

王様の腰掛けビーズ補充メモ

王様の腰掛けビーズ補充メモ

補充したビーズ

Out Style 補充用ビーズ クッション 日本製 (1個, 1ミリ 400g)

1ミリ ビーズなら何でも OK だと思います
400g がおすすめです
それ以上だと1回ですべて使い切るのは難しく保管するのも面倒なためです

人数

  • 2人以上
    • 3人でやるとだいぶ安定すると思います

道具

  • トイレットペーパーの芯
  • テープ
  • はさみ or 糸切りバサミ
  • 裁縫道具 or ミシン

流れ

  1. 補充用ビーズの投入口をカット
  2. 投入口にトイレットペーパーの芯を挿す
  3. 王様の腰掛けの投入口の紐をほどく
  • 初回はかなり細かく縫われているのでほどくのが大変
  • 糸切りバサミで開きながら切っていくのが良い
  1. 補充用ビーズに挿したトイレットペーパーの芯と王様の腰掛けの腰掛けの投入口を合体
  • 王様の腰掛け側の補充口はトイレットペーパーの芯のサイズギリギリなので開きながらいれる
  1. 双方のトイレットペーパー芯が外れないように抑えながらビーズ補充
  2. すべての補充が完了したら王様の腰掛け側の投入口を裁縫する
  • かなり細かく縫わないとビーズが出てくるので注意
  • 一列ではなく複数列縫うのもよし
  • ミシンがあると尚良し

ポイント

  • 補充用ビーズ内にあるビーズを一つ残らず補充するのは不可能なのである程度補充できたらあきらめる
  • 全くビーズがこぼれないで補充するのは不可能なので多少ビーズで汚れるのは諦める

補充間隔

  • 完全に感覚ですが2年に1回400gを補充するといい感じかなと思います

2024年6月26日水曜日

mlx-examples の LoRA を使って kakakikikeke っぽいツイートを自動生成してみた

mlx-examples の LoRA を使って kakakikikeke っぽいツイートを自動生成してみた

画像生成は stable-diffusion を使いました
音声生成は RVC を使いました
今回は文章生成をします

環境

  • macOS 14.5
  • Python 3.10.12
  • mlx-examples 69700d84

学習データの作成

Twitter のアーカイブデータを使います
アーカイブデータ内に tweets.js というツイートを管理しているファイルがあるのでそこから学習データとテストデータと評価データを作成します

学習させるツイートの元では 3 万件ほどありますが全部は学習させません
本当は全部学習させたいのですがマシンのスペックも考慮して 1300 件にしています
テストと評価データはそれぞれ 100 件ずつです

wc -l my_tweet/*
     100 my_tweet/test.jsonl
    1100 my_tweet/train.jsonl
     100 my_tweet/valid.jsonl
    1300 total

このデータセットの量でだいたい 1 時間ほどで LoRA を生成できるので 3 万件学習させても 4 日ほどあれば終わるかもしれません

学習データ作成スクリプト

以下 tweets.js を解析して学習データを作成するための Python スクリプトです
pandas と scikit-learn が必要になります
json ファイルを解析するだけなので pandas も scikit-learn もなしで解析することもできます

import json
from io import StringIO

import pandas as pd
from sklearn.model_selection import train_test_split

# tweets.js を読み込んでツイート情報を辞書に変換
tweets = []
with open("./tweets.js", mode="r") as f:
    for tweet in json.loads(f.read().replace("window.YTD.tweets.part0 = ", "")):
        t = {
            "full_text": tweet["tweet"]["full_text"],
            "created_at": tweet["tweet"]["created_at"],
        }
        tweets.append(t)

# JSONデータをPandas DataFrameに読み込む
df = pd.read_json(StringIO(json.dumps(tweets)))
pd.set_option("display.max_colwidth", 1000)
pd.set_option("display.max_rows", 1000)

# リンクを含むツイートは削除
df = df[~df["full_text"].str.contains("https://")]

print(df.head(100))

# テキスト長が短い学習データTOP1300をデータセットとして扱う
# 学習に時間がかかる場合もしくはメモリを使いすぎる場合は ascending=True にして短い順にするか 1300 の数を小さくすること
df["length"] = df.full_text.str.len()
df = df.sort_values(by="length", ascending=False)
df = df.head(1300)
print(len(df.index))

# データフレームをシャッフル
df = df.sample(frac=1).reset_index(drop=True)

# validとtest用のデータを100件ずつ取り出し、残りをtrainに分割
valid_df, remaining_df = train_test_split(df, test_size=len(df) - 100, random_state=42)
test_df, train_df = train_test_split(
    remaining_df, test_size=len(remaining_df) - 100, random_state=42
)


# ヘルパー関数:データフレームを新しい形式でJSON Linesファイルに変換
def df_to_jsonl(df, file_name):
    with open(file_name, "w", encoding="utf-8") as file:
        for _, row in df.iterrows():
            formatted_data = {"text": f"USER:ツイートして ASSISTANT:{row['full_text']}"}
            file.write(json.dumps(formatted_data, ensure_ascii=False) + "\n")


# 各データセットを対応するJSON Linesファイルに変換
df_to_jsonl(train_df, "./train.jsonl")
df_to_jsonl(valid_df, "./valid.jsonl")
df_to_jsonl(test_df, "./test.jsonl")

最終的には3つのファイルが作成できればいいので解析方法はおまかせします

ベースモデル

学習させるデータが日本語なのでベースモデルも日本語に特化したものを使ったほうがいいです
今回は https://huggingface.co/4bit/ELYZA-japanese-Llama-2-7b-instruct を使いました
また mlx は専用のフォーマットにモデルをコンバートする必要があるのでモデルをダウンロードしたら mlx-examples に含まれる convert.py を使って変換します

  • cd mlx-examples/lora
  • python convert.py --hf-path 4bit/ELYZA-japanese-Llama-2-7b-instruct -q --q-bits 4

コンバートしたモデルは mlx_model 配下に生成されます

学習

生成した学習データと変換した ELYZA のベースモデルを使って LoRA アダプタを生成します

  • python lora.py --model mlx_model --data my_tweet --train --iters 600

反復数も学習時間に影響するためあまり大きくすると学習時間が増えるので注意してください
600 回と 1300 件の学習データで約 1 時間で終了しました

推論

あとはテストします

  • python lora.py --model mlx_model --adapter-file adapters.npz --prompt "USER:ツイートして ASSISTANT:"
Loading pretrained model
Total parameters 1055.199M
Trainable parameters 2.097M
Loading datasets
Generating
USER:ツイートして ASSISTANT:iot_device には iot_device って何だよ、デバイス�も実装したいというときはどうすればいんだろうか。ま�、ros bond とかと同じ�じかな、デバイスに�する
  定を管理するクラスを作るだけだよな

何度か生成してみます

Loading pretrained model
Total parameters 1055.199M
Trainable parameters 2.097M
Loading datasets
Generating
USER:ツイートして ASSISTANT:10.5 10.6 10.7 、、、、10.9 10.10 10.11 を使うために 10 にしてるのか。ios の場合は 10.12 とかだからちゃんとやってるな、という�じ
==========
Loading pretrained model
Total parameters 1055.199M
Trainable parameters 2.097M
Loading datasets
Generating
USER:ツイートして ASSISTANT:airplay の機�ってどこの�品があるんだろうか。これから発表していくためにはコンテナに入れておかないとダメなのだろうか。����も����も結果は同じという
  とを�り返していく
==========
Loading pretrained model
Total parameters 1055.199M
Trainable parameters 2.097M
Loading datasets
Generating
USER:ツイートして ASSISTANT:その google colaboratory だとあるスクリプトをコードで����すか、、、コードの�分ってやつですが、、、そのためにコードの変更�所を����のがいいんだけ
  そのためにもしくは使えるのが
==========

この文字化けは何とかならないのだろうか、、

おまけ: 文字化け対策

てっとり早く対応する場合は生成されたいろいろ弄る前のトークンを最後に print すれば OK です

git diff
diff --git a/lora/lora.py b/lora/lora.py
index a90eda7..411f558 100644
--- a/lora/lora.py
+++ b/lora/lora.py
@@ -312,6 +312,7 @@ def generate(model, prompt, tokenizer, args):
             skip = len(s) - 1
     print(tokenizer.decode(tokens)[skip:], flush=True)
     print("=" * 10)
+    print(f"{s} \n\n")
     if len(tokens) == 0:
         print("No tokens generated for this prompt")
         return

文字化け対策して10個生成してみました

結局その一緒に遊ぶやつとセットにしないとダメなんですか。通信量かかりますが gps ロガーつけている状態じゃないとダメなんですか。そういうわけだからバックグラウンドでおいておいておけばいくらか 

customerservice ルートにログインしたときに dns コマンドによってクラスタの dns サービスを停止していたため、ルートからクラスタにリクエストが行けなくなっていたようだな。対応はわかっているけど now  

docker-compose 使うときは pod とか swarm とかクラスタとか pod とか svc とか nil じゃないという感じのものを指定しないといけないんだけどなー、、、どうすればいいかなー、、、なんかいなくてないのだろうか、、、 

docker-compose の場合、ローカルの machine 名の前に 0 をつけてくればどこでもインストールできるようになったのかな、、docker の proxyswarm とかはプロキシの指定が必要とか面倒だからなー。salt の場合のマシン名でコ 

docker-compose とか YouTube とかで配布するのに役立っているのがコンテナってやつとかパブリッシュなのにコンテナが必要だとか結構あるのかな、コンテナのためのコンテナってのがあるけどどういうことなんだろう 

自前の処理って製品の説明書?移行前のデータをどこまでコピーするのかとかは援助しないかな。そういう時には「自前の処理」という概念がないから。そもそも仕様がわからんわけ 

ブログから個人サイトのための micro-flutter を作るってなると github を使ってできない理由はないだろうけど、blog を用意するとなってみんなが悩むのは同じで、その問題を解決するためにサービスがいくつ 

windows 折りたたみ式のマウスって結局何がいいんだろうか。マウスとして普通の押し出し式のもがいいから私が把持って操作したい、そして折りたたんで持ち歩きたいっていうのが気持ちだった 

確かに android 12 が 2020 年 9 月というのはかなり早い感じ。アップグレードのスケジュールはかなりの傾向があるような気がする。だけどいろいろと理由はあるんだろうか。最終的には google 

iPhone の時のプライスタグが貼り付けできないのか、実は AppStore のプライスタグが使えないのか。 tinder は使っているのにおかしい、とか思う人は apple の審査厨になっているから 

考察: 学習させるデータの修正

今回は「ツイートして」という質問に対して適当にサンプルしたツイートを学習させています
コンテキストも何もない状態の質問なので本当にランダムなツイートを生成してしまいます

ツイートする場合には本来ある程度のコンテキストが含まれていることがあり例えば梅雨の時期だったら雨に関するツイートをしたりだとか WWDC が Google I/O が開催される時期なので Apple や Google に関するツイートをしたりします
なので学習させるデータの質問にコンテキストを持たせることができれば特定の事柄や事象、特定の言葉を含んだツイートを生成することができます

単純に「ツイートして」という質問を学習させるのではなく「6月の雨に関するツイートをして」という感じで質問をカスタムできれば生成する際にも6月の雨に関するツイートを生成することができます
実際に生成する際の質問も「ツイートして」だけではなくテンプレートなどを使って「X月のYYYに関するツイートをして」という感じで自動で X, Y を埋めるようにすればコンテキストを持たせた文章を生成することができると思います

時期に関しては tweets.js に含まれているので簡単に学習データに含ませることができそうですが「YYY に関する」の部分はそう簡単にはいきません
例えばツイート情報を形態素解析してもっとも頻出している単語を YYY に設定することができそうですがそれだけだと正確なコンテキスト情報としては少し甘い気がします
ツイートに「Apple」や「Google」など特定の単語が含まれていれば問題ないですがそうでないツイートもたくさんあり単純のカウントではダメなケースがあります
なのでちゃんとやるのであれば例えばツイートの種類のようなものを判定する必要があるかなと思っており例えば「こんにちわ」や「ねる」「はぁー」みたいな文章ではなく短い単語のみのツイートはコンテキストなしという分類にし特定のコンテキストなり得る単語を含むツイートはコンテキストありとしてその場合は形態素解析を使ってそのツイート内に出現する特徴語を抽出してそれを「YYYに関する」の部分に設定すればそれっぽいコンテキストにはなるかなと思います

このあたりはツイートの自動タグ付けやネガポジ判定のような世界になってくるので論文を漁れば手法は死ぬほど出てくると思います

という感じで学習させるデータをもう少し工夫できれば完全ランダムなツイートしか生成しない問題を解決できるかなと思っています

最後に

まだまだ改善の余地はありそうですが自分っぽいツイートをする流れはだいたい把握できました
あとは学習データを修正したり生成時のプロンプトを変更すればもっと自然なツイートになるかなと思います

これまで画像、音声とやってきましたが文章生成が一番たいへんなイメージです
「自然な」日本語にするのがすごい難しいです

2024年6月15日土曜日

iOS 版ドラゴンクエスト7をプレイしたのでメモ

iOS 版ドラゴンクエスト7をプレイしたのでメモ

変数が表示されないバグとかどうでもいいのでとにかく急に落ちるのを何とかしてほしい

環境

  • iPhone14 (iOS )
  • iOS 版 DQ7 1,220円 (2021年に購入)

プレイ時間

  • 約100時間
  • そのうち10時間くらいはカジノの自動化で放置していた

ゲームの進行について

  • 全体的にマリベルのイオ系が強すぎる
  • 全体的にボスはせいけんづき+バイキルトが強すぎる
  • 主人公とガボはしばらくブーメランで大丈夫
  • ボスは「ぼうぎょ」x3、マリベルのルカニで二段階下げてからガンガンで大体勝てる
  • 行ったり来たりが辛い
  • 後半は正直どこに行けばいいのかわからないことが多いので素直に攻略サイトを見たほうがいい
  • とうぞくのはなでは見つからないアイテムはレミラーマをしないと発見できない、レミラーマはちいさなメダル目的
  • ダンジョンの地図がデフォルトで使えるのはいい
  • 石版交換でメタル系が出る石版を手に入いれれば序盤から楽にクリアできてしまう
  • 上級職で覚えたじゅもんや特技や上級職を辞めると忘れてしまう、おそらくリメイク版での仕様
  • 主人公もガンガンいこうぜとかできると楽だった

オルゴデミーラ討伐時点でのレベル

  • ダークパレスに行ける段階で石版をやり込んだのでレベルは60を超えていた
  • プレイ時間は50時間程度
  • 風のアミュレットを使ってそのままクリア
  • じゅくれんどは基本職が8割、上級職が2割くらい終わっている状態

神さま討伐時点でのレベル

  • この時点でのプレイ時間は100時間程度
  • じゅくれんどは基本職、上級職がカンストで特級職もほぼ終わっている状態
  • やりすぎた
  • 4精霊も同じレベルで状態でクリア
  • Lv99 スライムマジュラの地図がラスボス

ゲームの操作について

  • 画角が狭すぎる、調整できない、ゆえに周りを確認しづらい
  • 3D酔いしそう
  • ツボやタンスを調べるときに村人が近くにいると割りづらい
  • 序盤のカラーストーン採掘場の石の操作が難しすぎる
  • ちいさなメダル数や熟練度の数を確認するときに変数が展開されずに変数名が出るバグがある

レベル上げ

  • クリアするだけなら基本はやる必要なし、普通に進行していればそれなりのレベルになる
  • やるなら石版交換のメタルダンジョンでまじんぎり
  • 熟練度上げを優先しないと先に Lv99 になってしまうので経験値がもったいないことになる

熟練度

  • 自作の石版なら何でも OK

最強パーティ

  • しんぴのよろいが装備できるのでガボを抜いたパーティがよさそう

やりこみ要素

  • ちいさなメダル
  • モンスターパーク (いいモンスター石版集め
    • はやぶさのくつ (スタンプ150
    • レアアイテム (ボス敵ドロップ
  • モンスター職
  • レベル99
  • じゅくれんど

アイテム、お金稼ぎ

  • 石版でタルが大量に出るフィールド (カラーストーン採掘場の入口、どっかの塔の入口) があるのでそこでタルを割って即帰宅を繰り返す

カジノコイン稼ぎ

  • 昔作った自動タップくんを使って 100 コインスロットで一日回せば勝手に MAX までいってくれる

種稼ぎ

  • やってないがモンスターを倒すしかなさそう

モンスター石版について

  • 強いボスだとレアアイテムをドロップすることがある
  • 同じ名前の地図は一度クリアするとレアアイテムはドロップしないっぽい
    • -> あくまでも確率だから周回していれば落ちるっぽい
    • 自分が生成した石版でサタンメイルがボスの地図を何回も周回したら何回も「真しんぴのよろい」が手に入ったので運次第
  • Lv99 の人が作っている地図は基本長い
  • Lv99 の人が作っている地図でもボスが弱いことがある
  • 連れて行ったモンスターが作成された石版に出現する
  • 先頭に設定したモンスターがボスになる
  • 詳しくはこのあたりを参照

最後に

石版のせいでゲーム性が崩壊しているので石版を利用はほどほどにしましょう

2024年5月31日金曜日

kakakikikeke を AI で大量生成してみました

kakakikikeke を AI で大量生成してみました

StableDiffusion の LoRA を作成して大量の kakakikikeke を作成してみました
これで永遠に自分が生成できます

環境

  • M2 Pro mac mini (macOS 14.5
  • Stable Diffusion WebUI 1.9.4
  • sd-scripts 0.8.7

学習させる画像

自分の昔の写真(15年くらい前の写真)を使いました
画像サイズはすべて 512x512 です

できれば 20-50 枚くらい準備したほうが精度が良いのですがとりあえずお試しなので 1 枚の画像から 4 枚の異なる背景の画像を用意しました
また少しだけ傾けけたりしています
こうすることで背景を変更させたりすることができます

画像のタグ情報を生成する

画像以外に画像のメタ情報を設定することでよりプロンプトで LoRA を強調することができます
タグ設定には https://github.com/toriato/stable-diffusion-webui-wd14-tagger を使っています

一応抽出できたタグ以外に個別のタグとして「kakakikikeke」を追加しました

LoRa の作成

LoRA の生成には有名な https://github.com/kohya-ss/sd-scripts を使いました
Apple Sillicon 上で動作させるには少し特殊な設定が必要になります

以下に学習時のパラメータを乗せておくので Apple Sillicon 上で動作させたい場合には参考にしてください

xformers を使わなかったり各種 precision の値、最適化関数を AdamW にするあたりが Apple Sillicon 上で動作させるポイントかなと思います
ちなみに画像の学習回数は15回です (ディレクトリに含める値なので以下では設定できない値)

ステップ数が 400 で画像が 4 枚で学習回数が 15 回でだいたい 1 時間くらいで完了します
もっと画像を増やしたりステップを増やしてもいいかもしれません


  "LoRA_type": "Standard",
  "LyCORIS_preset": "full",
  "adaptive_noise_scale": 0,
  "additional_parameters": "",
  "async_upload": false,
  "block_alphas": "",
  "block_dims": "",
  "block_lr_zero_threshold": "",
  "bucket_no_upscale": true,
  "bucket_reso_steps": 64,
  "bypass_mode": false,
  "cache_latents": true,
  "cache_latents_to_disk": false,
  "caption_dropout_every_n_epochs": 0,
  "caption_dropout_rate": 0,
  "caption_extension": ".txt",
  "clip_skip": 1,
  "color_aug": false,
  "constrain": 0,
  "conv_alpha": 1,
  "conv_block_alphas": "",
  "conv_block_dims": "",
  "conv_dim": 1,
  "dataset_config": "",
  "debiased_estimation_loss": false,
  "decompose_both": false,
  "dim_from_weights": false,
  "dora_wd": false,
  "down_lr_weight": "",
  "dynamo_backend": "no",
  "dynamo_mode": "default",
  "dynamo_use_dynamic": false,
  "dynamo_use_fullgraph": false,
  "enable_bucket": true,
  "epoch": 1,
  "extra_accelerate_launch_args": "",
  "factor": -1,
  "flip_aug": false,
  "fp8_base": false,
  "full_bf16": false,
  "full_fp16": false,
  "gpu_ids": "",
  "gradient_accumulation_steps": 1,
  "gradient_checkpointing": false,
  "huber_c": 0.1,
  "huber_schedule": "snr",
  "huggingface_path_in_repo": "",
  "huggingface_repo_id": "",
  "huggingface_repo_type": "",
  "huggingface_repo_visibility": "",
  "huggingface_token": "",
  "ip_noise_gamma": 0,
  "ip_noise_gamma_random_strength": false,
  "keep_tokens": 0,
  "learning_rate": 0.0001,
  "log_tracker_config": "",
  "log_tracker_name": "",
  "log_with": "",
  "logging_dir": "log",
  "loss_type": "l2",
  "lr_scheduler": "cosine",
  "lr_scheduler_args": "",
  "lr_scheduler_num_cycles": 1,
  "lr_scheduler_power": 1,
  "lr_warmup": 10,
  "main_process_port": 0,
  "masked_loss": false,
  "max_bucket_reso": 2048,
  "max_data_loader_n_workers": 0,
  "max_grad_norm": 1,
  "max_resolution": "512,512",
  "max_timestep": 1000,
  "max_token_length": 75,
  "max_train_epochs": 0,
  "max_train_steps": 400,
  "mem_eff_attn": false,
  "metadata_author": "",
  "metadata_description": "",
  "metadata_license": "",
  "metadata_tags": "",
  "metadata_title": "",
  "mid_lr_weight": "",
  "min_bucket_reso": 256,
  "min_snr_gamma": 0,
  "min_timestep": 0,
  "mixed_precision": "no",
  "model_list": "custom",
  "module_dropout": 0,
  "multi_gpu": false,
  "multires_noise_discount": 0.3,
  "multires_noise_iterations": 0,
  "network_alpha": 1,
  "network_dim": 8,
  "network_dropout": 0,
  "network_weights": "",
  "noise_offset": 0,
  "noise_offset_random_strength": false,
  "noise_offset_type": "Original",
  "num_cpu_threads_per_process": 2,
  "num_machines": 1,
  "num_processes": 1,
  "optimizer": "AdamW",
  "optimizer_args": "",
  "output_dir": "model",
  "output_name": "kakakikikeke",
  "persistent_data_loader_workers": false,
  "pretrained_model_name_or_path": "runwayml/stable-diffusion-v1-5",
  "prior_loss_weight": 1,
  "random_crop": false,
  "rank_dropout": 0,
  "rank_dropout_scale": false,
  "reg_data_dir": "",
  "rescaled": false,
  "resume": "",
  "resume_from_huggingface": "",
  "sample_every_n_epochs": 0,
  "sample_every_n_steps": 0,
  "sample_prompts": "",
  "sample_sampler": "euler_a",
  "save_as_bool": false,
  "save_every_n_epochs": 1,
  "save_every_n_steps": 0,
  "save_last_n_steps": 0,
  "save_last_n_steps_state": 0,
  "save_model_as": "safetensors",
  "save_precision": "float",
  "save_state": false,
  "save_state_on_train_end": false,
  "save_state_to_huggingface": false,
  "scale_v_pred_loss_like_noise_pred": false,
  "scale_weight_norms": 0,
  "sdxl": false,
  "sdxl_cache_text_encoder_outputs": false,
  "sdxl_no_half_vae": false,
  "seed": 0,
  "shuffle_caption": false,
  "stop_text_encoder_training": 0,
  "text_encoder_lr": 0.0001,
  "train_batch_size": 1,
  "train_data_dir": "/Users/kakakikikeke/Downloads/data",
  "train_norm": false,
  "train_on_input": true,
  "training_comment": "",
  "unet_lr": 0.0001,
  "unit": 1,
  "up_lr_weight": "",
  "use_cp": false,
  "use_scalar": false,
  "use_tucker": false,
  "v2": false,
  "v_parameterization": false,
  "v_pred_like_loss": 0,
  "vae": "",
  "vae_batch_size": 0,
  "wandb_api_key": "",
  "wandb_run_name": "",
  "weighted_captions": false,
  "xformers": "none"
}

Stable Diffusion WebUI で生成

あとは sd-webui で生成するだけです
sd-scripts で生成した LoRA を指定しプロンプトで生成します
プロンプトは以下です

realistic, 1boy, solo, male focus, day, teeth, blue eyes, black hair, polka dot shirt, upper body, shirt, smile, portrait, kakakikikeke, simple background	<lora:kakakikikeke:1>

また生成時のパラメータは以下だけいじっています

Sampling method -> Euler a
Sampling steps -> 30
Batch count -> 12

で、できあがった画像が以下

手が3本あったりします

考察

おそらくもっと学習データを増やせばもっと精度が良くなると思います
学習させたデータが同じ向きしかないのともともと画像がかなり荒いので生成される画像も少しかけ離れた感じになってしまいます
学習させたデータが上半身しかないのでそれも微妙だった気がします、できれば全身のいろいろな角度の写真が望ましかったかもしれません

また LoRA 学習時のタグ生成ももう少し工夫すればプロンプトにうまく反映できるようになるのかなと思います

あとはプロンプトでリアルな人間を生成する感じのプロンプトを付与すればもっとリアルな感じになるのかなと思います

(masterpiece,best quality:1.4),(8k,raw photo,photo realistic:1.2)

ベースのモデルをデフォルトのやつではなく日本人の顔に特化したモデルに変更してももっと良い結果になるかもしれません

最後に

たった一枚の写真でもここまで生成に反映できるとは思いませんでした
現在の年齢の写真や幼少期の写真も学習させれば生まれてから現在はたまた未来の自分までの画像が作成できるかもしれません

今回環境が M2 mac mini だったので学習させる画像の量に限界があるのがネックです
もし大量の画像を学習させていろんなバリデーションの自分を出力できるようにするのであればそれなりのスペックのマシンか Google Colab あたりで動作させる必要があるかもです