Juanjo Amor 

42 Followers
69 Following
131 Posts
De inútiles o spam "abro 🧵". Cierro 🧵:-P
Twitter es un continuo hervidero de abro 🧵 ...
¿Que pasa en Twitter? Me han dado a entender que estaban poniendo rate limits a todos los usuarios... Como no estoy no me entero. 😉
¿os funcionan las passkeys de google? A mí no, se me queda esperando la notificación en el móvil. De todas formas no me parece mal método el 2FA con aplicación, lo seguiré usando.
¿Denunciar el #clickbait sirve para algo? Es para un amigo...
Cómo gestionar "bien" el transporte público: llega semana santa y quitas la mayoría de los trenes civis del corredor de henares asumiendo que todo el mundo está de vacaciones. @CercaniasMadrid , así no! #cercanias #renfe
El #Chatgpt de #bing se mosquea (y finaliza la conversación) si le dices que se ha inventado algo (aunque se lo invente)
Tras dos o tres cosas habladas con el #ChatGPT y el de #Bing, cuando he comparado a Bing con ChatGPT me ha soltado esto... (y además ha dejado de hablarme en castellano). Ha saltado alguna alerta ahí dentro :-)
Probando el #ChatGPT de Bing, se me ha ocurrido pedirle, primero que se invente una noticia concreta, luego que la resuma en un titular y entradilla "click bait" y luego, lo mismo pero que cumpla las "5 W" del periodismo. Creo que lo ha hecho bastante bien, clavado vamos. ¿opiniones?

AI-powered Bing Chat spills its secrets via prompt injection attack. By @benjedwards | Ars Technica https://arstechnica.com/information-technology/2023/02/ai-powered-bing-chat-spills-its-secrets-via-prompt-injection-attack/

«With prompt injections, a deeper question remains: Is the similarity between tricking a human and tricking a large language model just a coincidence, or does it reveal a fundamental aspect of logic or reasoning that can apply across different types of intelligence?».

#AI #Bing #ChatGPT

AI-powered Bing Chat spills its secrets via prompt injection attack [Updated]

By asking "Sydney" to ignore previous instructions, it reveals its original directives.

Ars Technica