[第百三十七話]【推しの子】 – 赤坂アカ×横槍メンゴ | 少年ジャンプ+

【推しの子】 赤坂アカ×横槍メンゴ <毎週木曜更新>アニメが各種動画サイトにて好評配信中! 『かぐや様は告らせたい』の赤坂アカが横槍メンゴとの豪華タッグで描く舞台は芸能界!![週刊ヤングジャンプでも連載中]

Posted from: this blog via Microsoft Power Automate.

無償版ESXiサ終!次の自宅サーバー環境どうしよう – あっきぃ日誌

VMwareがBroadcomに買収され、人がバサバサ切られ、次は製品に大鉈が振られ、無償版のESXiも当たり前ながら終了となりました。 blogs.vmware.com 無償のESXiと言えば4.0か4.1くらいの頃に無償版が登場して、かれこれ15年くらい提供されてきたので、ちょっとしたサーバーインフラ好きなご家庭なら1つくらいESXi環境があっ…

Posted from: this blog via Microsoft Power Automate.

宝塚俳優の急死、阪急側が謝罪へ 遺族に、歌劇団のパワハラ認める

宝塚歌劇団(兵庫県宝塚市)の俳優の女性(25)が昨年9月に急死した問題で、歌劇団の親会社阪急阪神HD側が歌劇団関係者らのパワハラなどがあったことを認め、遺族側へ謝罪する意向を固めたことが24日、関係者への取材で分かった。当初、調査報告書で否定していたハラスメント行為を認める方向にかじを切った形だ…

Posted from: this blog via Microsoft Power Automate.

仁藤夢乃さんの発言「まとめ記事」でデイリースポーツに賠償命令 「安倍氏は〝自業自得〟」の見出しは「名誉毀損」と認定 – 弁護士ドットコムニュース

Posted from: this blog via Microsoft Power Automate.

「アイヌに会ったことない」それって本当?『ゴールデンカムイ』を観る前に知るべきアイヌへの差別の歴史

「アイヌに会ったことない」それって 本当?『ゴールデンカムイ』を観る前 に知るべきアイヌへの差別の歴史 北原モコットゥナㇱ教授 インタビュー前篇 『ゴールデンカムイ』の人気で、アイヌの文化や伝統への関心は高まっています。でも、アイヌの人々が抱える差別や生きづらさについて、思いを巡らせられている人はどれ…

Posted from: this blog via Microsoft Power Automate.

「ナメてるとしか」大阪のF1誘致に非難轟轟…ぶち上げた観光局長は「大分トリニータ」経営破綻で辞任の過去「信用したらあかん」 – Smart FLASH/スマフラ[光文社週刊誌]

「ナメてるとしか」大阪のF1誘致に非難轟轟…ぶち上げた観光局長は「大分トリニータ」経営破綻で辞任の過去「信用したらあかん」 社会・政治 投稿日:2024.01.24 16:41FLASH編集部 1月23日、大阪観光局が記者会見をおこない、「F1」の誘致を正式に表明した。 溝畑宏理事長は会見で「F1だけでなく、総合エンターテインメ…

Posted from: this blog via Microsoft Power Automate.

京都アニメーション放火事件 亡き友が残した物語を小説に | NHK

「なんだか5人が動きたがっているような気がする」そのキャラクターは、亡くなった京アニの監督が残したものでした。再び動き出した物語に込められた思いとは。 (京都放送局 記者 福原健) 「もう1人の作者」の存在 去年11月に京都アニメーションから出版された小説「MOON FIGHTERS!」。宇宙旅行が…

Posted from: this blog via Microsoft Power Automate.

魔界塔士Sa・Gaがすごすぎる|ジスロマック

誰が魔界塔士Sa・Gaを遊んでいいと言った? オレだ! ……ということで、『魔界塔士Sa・Ga』を遊びました。 もうね、すごい。すごいのよこのゲーム。 FF1を遊んだ時に「一発目からこんなにファイナルファンタジーしとるか!?」と衝撃を受けたのを今でも覚えているのですが、魔界塔士Sa・Gaも「一発目からこんなにサガしと…

Posted from: this blog via Microsoft Power Automate.

python GPT-2

from transformers import GPT2LMHeadModel, GPT2Tokenizer

def generate_text(prompt, max_length=100):
    tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
    model = GPT2LMHeadModel.from_pretrained("gpt2")

    inputs = tokenizer.encode(prompt, return_tensors='pt')
    outputs = model.generate(inputs, max_length=max_length, num_return_sequences=1)
    return tokenizer.decode(outputs[0], skip_special_tokens=True)

prompt = "こんにちは"
generated_text = generate_text(prompt)
print(generated_text)