【推しの子】 赤坂アカ×横槍メンゴ <毎週木曜更新>アニメが各種動画サイトにて好評配信中! 『かぐや様は告らせたい』の赤坂アカが横槍メンゴとの豪華タッグで描く舞台は芸能界!![週刊ヤングジャンプでも連載中]
Posted from: this blog via Microsoft Power Automate.
【推しの子】 赤坂アカ×横槍メンゴ <毎週木曜更新>アニメが各種動画サイトにて好評配信中! 『かぐや様は告らせたい』の赤坂アカが横槍メンゴとの豪華タッグで描く舞台は芸能界!![週刊ヤングジャンプでも連載中]
Posted from: this blog via Microsoft Power Automate.
VMwareがBroadcomに買収され、人がバサバサ切られ、次は製品に大鉈が振られ、無償版のESXiも当たり前ながら終了となりました。 blogs.vmware.com 無償のESXiと言えば4.0か4.1くらいの頃に無償版が登場して、かれこれ15年くらい提供されてきたので、ちょっとしたサーバーインフラ好きなご家庭なら1つくらいESXi環境があっ…
Posted from: this blog via Microsoft Power Automate.
宝塚歌劇団(兵庫県宝塚市)の俳優の女性(25)が昨年9月に急死した問題で、歌劇団の親会社阪急阪神HD側が歌劇団関係者らのパワハラなどがあったことを認め、遺族側へ謝罪する意向を固めたことが24日、関係者への取材で分かった。当初、調査報告書で否定していたハラスメント行為を認める方向にかじを切った形だ…
Posted from: this blog via Microsoft Power Automate.
って店あったけど、ワークウーマンだろ
Posted from: this blog via Microsoft Power Automate.
Posted from: this blog via Microsoft Power Automate.
「アイヌに会ったことない」それって 本当?『ゴールデンカムイ』を観る前 に知るべきアイヌへの差別の歴史 北原モコットゥナㇱ教授 インタビュー前篇 『ゴールデンカムイ』の人気で、アイヌの文化や伝統への関心は高まっています。でも、アイヌの人々が抱える差別や生きづらさについて、思いを巡らせられている人はどれ…
Posted from: this blog via Microsoft Power Automate.
「ナメてるとしか」大阪のF1誘致に非難轟轟…ぶち上げた観光局長は「大分トリニータ」経営破綻で辞任の過去「信用したらあかん」 社会・政治 投稿日:2024.01.24 16:41FLASH編集部 1月23日、大阪観光局が記者会見をおこない、「F1」の誘致を正式に表明した。 溝畑宏理事長は会見で「F1だけでなく、総合エンターテインメ…
Posted from: this blog via Microsoft Power Automate.
「なんだか5人が動きたがっているような気がする」そのキャラクターは、亡くなった京アニの監督が残したものでした。再び動き出した物語に込められた思いとは。 (京都放送局 記者 福原健) 「もう1人の作者」の存在 去年11月に京都アニメーションから出版された小説「MOON FIGHTERS!」。宇宙旅行が…
Posted from: this blog via Microsoft Power Automate.
誰が魔界塔士Sa・Gaを遊んでいいと言った? オレだ! ……ということで、『魔界塔士Sa・Ga』を遊びました。 もうね、すごい。すごいのよこのゲーム。 FF1を遊んだ時に「一発目からこんなにファイナルファンタジーしとるか!?」と衝撃を受けたのを今でも覚えているのですが、魔界塔士Sa・Gaも「一発目からこんなにサガしと…
Posted from: this blog via Microsoft Power Automate.
from transformers import GPT2LMHeadModel, GPT2Tokenizer
def generate_text(prompt, max_length=100):
tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
model = GPT2LMHeadModel.from_pretrained("gpt2")
inputs = tokenizer.encode(prompt, return_tensors='pt')
outputs = model.generate(inputs, max_length=max_length, num_return_sequences=1)
return tokenizer.decode(outputs[0], skip_special_tokens=True)
prompt = "こんにちは"
generated_text = generate_text(prompt)
print(generated_text)