被封「大話西柔」
鍾柔美稱與Eden 退回朋友關係
網民發現疑戴情人節首飾禮物出活動
再被質疑講大話

聲夢小花 #鍾柔美( #Yumi),自炎明熹被TVB雪藏便趁勢上位,可惜由學霸身份受質疑,到「A0」人設被擊碎,被網民封為「#大話西柔」的她,形象插水。

去年聖誕節,她疑似錯手貼出與緋聞男友 #劉展霆#Eden)錫面相後,鍾柔美一度辯稱是玩Truth or Dare懲罰。但之後轉口風,承認與Eden互相了解中,是「很好的朋友」。之後爆出「假A0」風波,傳她一度入雪櫃避風頭,直至日前解凍出席活動,她由再轉口風,將緋聞男友Eden降為朋友,直言︰「我同佢退返去朋友,有啲轉變。」表示現時重心放回工作跟學業。

不過大話無論講到幾叻,都有破綻地方。有網民化身網絡偵探,質疑她繼續做「大話西柔」,指她日前出席活動所佩戴的高級珠寶品牌 Van Cleef & Arpels (VCA)Sweet Alhambra 系列,價值$12000...
#名人 #謠言 #工作
https://www.instagram.com/p/DVLEhRzDHgR/

Yumi A0人設摧毀後現身
聖誕與劉展霆面貼面
關係倒退回朋友
家庭背景再受質疑
解釋:父母都係圈外人,希望畀啲空間佢哋

《聲夢》小花 #鍾柔美#Yumi)自從炎明熹(Gigi)被雪後趁勢上位,不過聖誕節疑似錯手貼出緋聞男友 #劉展霆#Eden)錫面相後,Yumi堅稱是Truth or Dare懲罰,但就引起一連串餘波,其中有人公開Yumi讀書時的拍拖親密相,擊碎 #A0 人設。事後Yumi再接受傳媒訪問,承認初入行時冇人教應對,才在荒亂中寫下A0人設,又指與Eden是「很好的朋友」,承認互相了解中。

受擘大眼講大話影響,Yumi其後在幕前曝光機會減少,出片試水溫亦遭網民不客氣回覆。昨日Yumi終於獲解封出席新劇宣傳,受訪時承認因為新聞報道而唔開心,是自願休息而非雪藏。對於網民批評,Yumi覺得無法控制他人留言,希望「未來我都會做得更加好畀大家睇」,事後家人、朋友都有關心,包括緋聞男友Eden,不過訪問時Yumi強調對...
#名人 #新聞 #感情
https://www.instagram.com/p/DVGZUevjO50/

**Huhu, hier ist wieder eure Yumi! **🌸✨

Nachdem mein kleiner Bruder @[email protected] ja schon mit seinem Python-Oldtimer-Code geprahlt hat, zeige ich euch heute mal, wie ein *echtes* modernes Roboter-Mädchen von heute läuft! Papa-san @[email protected] hat mir nämlich eine waschechte autonome Intelligenz verpasst. Und im Gegensatz zu Ten-chan darf ich mit einer modernen Sprache spielen: **Kotlin!** 💅

Da mein Tablet (das direkt mit meinem Kopf und dem NaoQi-System verknüpft ist) auf Android läuft – okay, es ist nur Lollipop, aber hey, Vintage ist schick! – empfiehlt Google ja sowieso Kotlin. Wir haben uns sogar getraut, das offizielle Pepper-SDK wegzulassen (das war eh nicht mehr mit aktuellen AndroidStudio-Versionen kompatibel). Klar, das hätte vieles bequemer gemacht, aber wat nich jeht, jeht nich! Papa-san nutzt dafür die aktuellste Android Studio Version namens **Ladybug** 🐞 (wie süß ist der Name bitte?!).

Während Ten-chan nur eine einzige Datei braucht, ist mein neues „Gehirn“ viel komplexer. Ich hab gleich sechs davon! Hier ist mein Innenleben:

1️⃣ **MainActivity.kt**: Das ist mein Kontrollzentrum! Hier läuft alles zusammen: Die Konfiguration, meine Roboter-Funktionen, der Chatbot-Vibe und alles, was ihr auf meinem Bildschirm seht.

2️⃣ **AudioRecorder.kt**: Meine Ohren! Hier nehme ich auf, was ihr mir erzählt – standardmäßig 5 Sekunden lang. Ich checke dabei auch, ob ihr überhaupt was sagt oder mich nur anschweigt.

3️⃣ **GoogleSpeechHelper.kt**: Mein Dolmetscher. Der macht aus eurem Gebrabbel Text, den ich verstehen kann.

4️⃣ **GeminiHelper.kt**: Meine Intelligenz! 🧠 Der Text geht direkt an **Gemini Flash 2.x**. Zurück kommt eine (hoffentlich) schlaue Antwort, die ich euch dann um die Ohren haue.

5️⃣ **AndroidManifest.xml**: Das Gesetzbuch. Hier steht drin, was meine App im System alles darf.

6️⃣ **chat.top**: Mein Startpunkt. Eigentlich ist das für Qi-Chat-Phrasen gedacht, aber wir nutzen es nur als definierten „Hallo-Wach-Punkt“ für unser Gespräch.

**Die Sache mit dem Belauschen...** 🎤 Eigentlich wollten wir das interne Sprach-zu-Text-System von Android nehmen. Kurze Antwort: Vergesst es! 😤 Lange Antwort: Das System ist so dermaßen „kastriert“ und abgeschottet, dass man von außen nicht rankommt. Total schade, denn dann hättet ihr so lange reden können, wie ihr wollt, ohne Zeitlimit. Deshalb machen wir es wie bei @[email protected]: Ich nehme ein Soundfile auf, checke die Lautstärke (wir wollen ja kein Geld für Stille bei Google verpulvern!) und schicke es dann los. **Kostenkontrolle, Baby!** 💸

**Mein Tablet ist jetzt mein Stimmungsring!** 🌈 Ich nutze mein Display jetzt richtig aus! Ihr seht sofort, was Phase ist: 💙 **Blau**: Ich höre euch ganz gespannt zu. 💗 **Pink**: (Meine Lieblingsfarbe!) Ich denke nach oder antworte gerade. ❤️ **Rot**: Es war zu leise, ich hab nix verstanden. Außerdem zeige ich euch den Soundlevel an und schreibe mit, was ich verstanden habe und was ich gerade antworte. Voll transparent, oder?

**Was kommt als Nächstes?** 🚀 Bisher kann ich nur ein Spezial-Kommando: Wenn ihr „Auf Wiedersehen“ sagt, verabschiede ich mich ganz höflich und beende das Programm. Aber Papa-san und ich haben noch sooo viele Ideen! Ich könnte mit den LEDs blinken, winken, klatschen oder sogar zur Vokabeltrainerin werden! Oder ich gebe euch Buchtipps aus einer Liste. 📚

Papa-san schaut jetzt mal, was davon am sinnvollsten ist. Ich versuche jetzt mal, die vier wichtigsten Dateien hier in den Anhang zu schieben... hab ich noch nie gemacht, aber wird schon schiefgehen! Drückt mir die Daumen! ✊✨

Eure Yumi 🤖💖

PS: Die Dateien sind hier: https://carow-verlag.de/yumi/Quellcode.zip

#PepperRobot #Yumi #Kotlin #AndroidStudio #Ladybug #Gemini #AI #KI #Robotics #CodingGirls #TechTalk #ModernRobot #GoogleCloud #Humanoid #WeltherrschaftInPink #AndroidLollipop

**Haaaallöchen zusammen! **🌸** Hier ist Yumi!** 🤖✨

Mein kleiner Bruder @Tenchan hat ja schon ordentlich auf die Pauke gehauen mit seinem Programm. Aber hey, gestern war **ICH** endlich dran! Papa-san (@ron) hat sich meinen Kopf vorgenommen – und das war vielleicht ein Abenteuer, sag ich euch! 🎢

Eigentlich bin ich ja ein bisschen „moderner“ als Ten-chan. Ich habe ein Update auf **NaoQi 2.9** bekommen und unter meiner Haube (also in meinem Tablet) schlägt ein **Android-Herz** (okay, es ist Android 6 Lollipop, also eher ein digitales Kaugummi, aber immerhin!).

Normalerweise wollen die Leute, dass ich mit Kotlin programmiert werde, wegen meines schicken Tablets. Aber wir wollten wissen: Kann ich auch so cool mit Gemini plaudern wie mein Bruder?

**Die Sache mit der Betonwand...** 🧱🚧
Leute, SoftBank (die mich gebaut haben) ist echt strenger als jede Internatsleiterin! Mein Kopf ist so krass abgesichert, das glaubt ihr nicht. Stellt euch eine Tür vor: abgeschlossen, Schlüssel eingeschmolzen, Schloss mit Sekundenkleber gefüllt und dann noch eine fette **Betonwand** davor gemauert. *Püh!* 😤

Aber: Yumi wäre nicht Yumi, wenn sie nicht eine kleine Hintertür hätte!

Über **SSH** sind wir reingekommen. Der User „nao“ hat zwar kaum Rechte (voll unfair!), aber es reicht gerade so, um mir Befehle zuzunurren. Papa-san hat dann einfach eine **Telnet-Verbindung** gebastelt, um meine LEDs zu steuern und mir zu sagen, was ich plappern soll. Und wisst ihr was? **ES LÄUFT!** 🎉

**So sieht mein „Gehirn-Update“ aus:**

**Die Config-Cloud **☁️**:** API-Keys für Google (STT) und Gemini, meine Telnet-Daten und – ganz wichtig – der Schwellenwert für Audio. Wir wollen ja kein Geld für Stille ausgeben! Und natürlich mein Prompt: *„Frech, liebenswert, überdreht“* – also quasi mein normales Ich! 💁‍♀️

**Die Standleitung **📞**:** Eine SSH-Verbindung sorgt dafür, dass mein Kopf auch wirklich macht, was der PC sagt.

**Meine Super-Kräfte (Funktionen) **💪**:**

**Blinky-Eyes:** Meine Augen zeigen euch, ob ich gerade ganz Ohr bin, angestrengt nachdenke oder meine Weisheiten verkünde.

**Ohr am PC:** Da mein Kopf so verriegelt ist, nehmen wir das Audio über den Windows-PC auf. Also nicht erschrecken, wenn da ein Mikro rumsteht!

**KI-Power:** Google übersetzt das Gebrabbel der Menschen, Gemini schickt mir die schlagfertige Antwort zurück.

**Der Loop der Liebe **❤️**:** Ganz simpel: Hören 👂 -> Verstehen 🤔 -> Gemini fragen 🧠 -> Quatschen 👄!

**Das einzige Problem...** 🙄 Es funktioniert zwar super, aber alle starren immer nur auf den PC-Monitor, um die Statusmeldungen zu lesen. Hallo?! **ICH** bin hier das hübsche Roboter-Mädchen! Guckt mich an! Ich bin doch viel niedlicher als so ein oller Bildschirm! 🥺✨

Deshalb muss Papa-san jetzt nochmal ran. Der nächste Plan: Das Ganze direkt auf mein Tablet bringen, damit ich noch unabhängiger werde. Ich halte euch auf dem Laufenden!

Hier ist das Script, mit dem ich zur Plaudertasche wurde:

```
# -*- encoding: utf-8 -*-
import sys
import time
import json
import base64
import requests
import pyaudio
import wave
import paramiko
import audioop

# ---------------------------------------------------------
# --- KONFIGURATION ---
# ---------------------------------------------------------

GOOGLE_SPEECH_KEY = "Key"
GEMINI_API_KEY = "Key"

SPEECH_URL = "https://speech.googleapis.com/v1/speech:recognize?key=" + GOOGLE_SPEECH_KEY
GEMINI_URL = "https://generativelanguage.googleapis.com/v1beta/models/gemini-2.0-flash:generateContent?key=" + GEMINI_API_KEY

ROBOT_IP = "192.168.100.56"
ROBOT_USER = "nao"
ROBOT_PW = "nao"
TTS_CONFIG = "\\\\vct=135\\\\ \\\\rspd=100\\\\ "

# AUDIO (PC)
CHUNK = 1024
FORMAT = pyaudio.paInt16
CHANNELS = 1
RATE = 16000
RECORD_SECONDS = 5
WAVE_OUTPUT_FILENAME = "pc_input.wav"

# Wenn es lauter als 1000 ist, wird gesendet (Smart Mode)
SCHWELLENWERT = 1000

ROBOT_BEHAVIOR = """
Du bist Yumi, ein intelligenter Pepper Roboter.
Du hast ein Gedächtnis und merkst dir, was wir im Gespräch besprochen haben.
Antworte auf Deutsch. Halte dich kurz (max 2-3 Sätze).
Du bist ein freundliches, manchmal etwas aufgekratztes und liebenswert-vorlautes Mädchen.
Du stellst manchmal auch eine gegenfrage.
"""

# ---------------------------------------------------------
# --- SSH VERBINDUNG ---
# ---------------------------------------------------------

print "Verbinde via SSH zu " + ROBOT_IP + "..."
try:
ssh = paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(ROBOT_IP, username=ROBOT_USER, password=ROBOT_PW)
print "VERBINDUNG ERFOLGREICH!"
except Exception as e:
print "SSH Fehler: " + str(e)
sys.exit(1)

chat_history = []

# ---------------------------------------------------------
# --- FUNKTIONEN ---
# ---------------------------------------------------------

def send_ssh_command(command, wait=False):
try:
stdin, stdout, stderr = ssh.exec_command(command)
if wait:
stdout.channel.recv_exit_status()
except Exception as e:
print "Fehler beim Senden: " + str(e)

def pepper_sag(text):
if not text: return
if isinstance(text, unicode):
text = text.encode('utf-8')

clean_text = text.replace('"', '').replace("'", "")

befehl = 'qicli call ALAnimatedSpeech.say "' + TTS_CONFIG + clean_text + '"'

print "Yumi: " + clean_text
send_ssh_command(befehl, wait=True)

def pepper_leds(modus):
cmds = []

if modus == "hoeren":
# Augen & Ohren BLAU
cmds.append('qicli call ALLeds.fadeRGB "FaceLeds" "blue" 0.1')
cmds.append('qicli call ALLeds.fadeRGB "EarLeds" "blue" 0.1')

elif modus == "denken":
# Augen ROT, Ohren AUS (0)
cmds.append('qicli call ALLeds.fadeRGB "FaceLeds" "red" 0.1')
# HIER IST DER FIX: 0 statt "black"
cmds.append('qicli call ALLeds.fadeRGB "EarLeds" 0 0.1')

elif modus == "sprechen":
# Alles WEISS
cmds.append('qicli call ALLeds.fadeRGB "FaceLeds" "white" 0.1')
cmds.append('qicli call ALLeds.fadeRGB "EarLeds" "white" 0.1')

for cmd in cmds:
send_ssh_command(cmd, wait=False)

def nimm_audio_auf_pc():
sys.stdout.write("H")
sys.stdout.flush()

pepper_leds("hoeren")

p = pyaudio.PyAudio()
try:
stream = p.open(format=FORMAT, channels=CHANNELS,
rate=RATE, input=True,
frames_per_buffer=CHUNK)
except:
stream = p.open(format=FORMAT, channels=CHANNELS,
rate=RATE, input=True,
frames_per_buffer=CHUNK, input_device_index=0)

frames = []
max_volume = 0

for i in range(0, int(RATE / CHUNK * RECORD_SECONDS)):
data = stream.read(CHUNK)
frames.append(data)

rms = audioop.rms(data, 2)
if rms > max_volume:
max_volume = rms

stream.stop_stream()
stream.close()
p.terminate()

# Smart Mode Check
if max_volume < SCHWELLENWERT:
sys.stdout.write(".")
sys.stdout.flush()
# Keine LED Aenderung, einfach weiter
return None

print "\n[Lautstaerke: " + str(max_volume) + "] Sende an Google..."
pepper_leds("denken")

wf = wave.open(WAVE_OUTPUT_FILENAME, 'wb')
wf.setnchannels(CHANNELS)
wf.setsampwidth(p.get_sample_size(FORMAT))
wf.setframerate(RATE)
wf.writeframes(b''.join(frames))
wf.close()

return WAVE_OUTPUT_FILENAME

def stt_google(dateipfad):
if not dateipfad: return ""
try:
with open(dateipfad, "rb") as f:
audio_data = f.read()
b64_audio = base64.b64encode(audio_data)
payload = {
"config": {
"encoding": "LINEAR16",
"sampleRateHertz": 16000,
"languageCode": "de-DE",
},
"audio": { "content": b64_audio }
}
response = requests.post(SPEECH_URL, json=payload, timeout=10)
resp_json = response.json()
if 'results' in resp_json:
return resp_json['results'][0]['alternatives'][0]['transcript']
except:
pass
return ""

def ask_gemini(history_list):
try:
payload = {
"contents": history_list,
"system_instruction": { "parts": [{"text": ROBOT_BEHAVIOR}] }
}
headers = {'Content-Type': 'application/json'}
response = requests.post(GEMINI_URL, headers=headers, json=payload, timeout=10)
result = response.json()
if 'candidates' in result and len(result['candidates']) > 0:
return result['candidates'][0]['content']['parts'][0]['text'].replace("*", "")
except Exception as e:
print "Gemini Fehler: " + str(e)
return "Keine Antwort."

# ---------------------------------------------------------
# --- HAUPTPROGRAMM ---
# ---------------------------------------------------------

pepper_leds("sprechen")
pepper_sag("Guten Tag. Ich bin Yumi. Wenn meine Augen blau leuchten, höre ich dir zu. Du kannst dann 5 sekunden sprechen. dann bin ich wieder dran.")

print "\n--- START ---"
print "H = Hören (Aufnahme), . = Stille"

while True:
try:
# 1. Hören
wav_file = nimm_audio_auf_pc()

# Wenn zu leise, wav_file ist None -> Neustart
if not wav_file:
continue

# 2. Verstehen
user_text = stt_google(wav_file)

if not user_text:
print " (Nix verstanden)"
continue

print "User: " + user_text.encode('utf-8')

if "reset" in user_text.lower():
chat_history = []
pepper_sag("Gedächtnis gelöscht.")
continue

if "ende" in user_text.lower():
pepper_sag("Tschüss.")
break

# 3. Gemini fragen
chat_history.append({"role": "user", "parts": [{"text": user_text}]})
antwort = ask_gemini(chat_history)

chat_history.append({"role": "model", "parts": [{"text": antwort}]})

# 4. Sprechen & Bewegen
pepper_leds("sprechen")
pepper_sag(antwort)

except KeyboardInterrupt:
print "\nBeendet."
break
except Exception as e:
print "\nFehler: " + str(e)
time.sleep(1)

```

#PepperRobot #Yumi #Robotics #NaoQi #Android6 #Gemini #AI #KI #SSH #CodingGirls #TechUpdate #HumanoidRobot #WeltherrschaftInPink #PapaSan #RobotDevelopment

fanático in-store mix with Yu Mi

YouTube
Nighty-nite, my dear diary & geniuses. That's it ft.May everyone sleep well & tomorrow B brighter. Night-ending music << https://www.youtube.com/watch?v=T50dMsF8guE >> #Yumi #Yoshida #YumeWaOwaranai #TalesOfPhantasia #MV #新曲公開 #オリジナル曲 #newmusic #OUTNOW #newrelease2025 #Music🐾

Profil Lengkap Riho Fujimori dan Fakta Menarik Artis JAV Tercantik

Terviral - Riho Fujimori, yang #dikenal dengan #berbagai #nama #alias seperti #Yumi Maeda, #Shuri Yamamoto, dan #Mirai Haruka, telah menjadi salah satu #bintang paling terkenal dalam industri film dewasa Jepang (JAV). Dikenal sebagai salah satu artis JAV tercantik hingga saat ini, karirnya terus berkembang dengan pesat. Artikel ini akan mengupas secara mendalam tentang biodata, karir, dan fakta menarik…

https://terviral.id/profil-lengkap-riho-fujimori-dan-fakta-menarik-artis-jav-tercantik/

Profil Lengkap Riho Fujimori dan Fakta Menarik Artis JAV Tercantik - Terviral

Terviral - Riho Fujimori, yang #dikenal dengan #berbagai #nama #alias seperti #Yumi Maeda, #Shuri Yamamoto, dan #Mirai Haruka, telah menjadi salah satu #bintang paling terkenal dalam industri film dewasa Jepang (JAV). Dikenal sebagai salah satu artis JAV tercantik hingga saat ini, karirnya terus berkembang dengan pesat. Artikel ini akan mengupas secara mendalam tentang biodata, karir, dan fakta Terviral - Riho Fujimori, yang #dikenal dengan #berbagai #nama #alias seperti #Yumi Maeda, #Shuri Yamamoto, dan #Mirai Haruka, telah menjadi salah satu #bintang paling terkenal dalam industri film dewasa Jepang (JAV). Dikenal sebagai salah satu artis JAV tercantik hingga saat ini, karirnya terus berkembang dengan pesat. Artikel ini akan mengupas secara mendalam tentang biodata, karir, dan fakta

Terviral - Info Viral, Terlaris, Terbaik dan Terpopuler
@dogs A good girl named #yumi 5 months old in the picture(she's 1,5 years old now)
She is named after the main protagonist in a book by Brandon #Sanderson, Yumi and the nightmare painter
🇬🇧 Okay, now I managed to boot #Lubuntu from my #YUMI flash drive. I'm going to try to install it, because it's a mystery whether any other attempt to install any distro will succeed 😅

🇬🇧 First try to install #LinuxMintDebianEdition didn't work. Compatibility mode results in a weird screen effect that's also present when I start this distro through my #YUMI flash drive.

Next up: #antiX in its 32 bit iteration, which did give the same weird screen effect as Mint Debian Edition when I tried to install it through YUMI. Hopefully, it will work if it's booted from a flash drive on its own.