Josele Santiago (Los Enemigos) se enfrenta a sus memorias: “Mi problema es la adicción”
Josele Santiago (Los Enemigos) se enfrenta a sus memorias: “Mi problema es la adicción”
LA heroina EN ESPAÑA EN LOS AÑOS 80. Una GENERACIÓN PERDIDA por la DROGA.

Senador demócrata calificó a María Corina Machado de heroína (VIDEO)
Los supervivientes de la generación de la heroína quieren contar su historia: “No fue un castigo, fue una putada”
𝐋𝐞𝐲𝐞𝐧𝐝𝐚𝐬, 𝐏𝐞𝐫𝐬𝐨𝐧𝐚𝐣𝐞𝐬 𝐞 𝐇𝐢𝐬𝐭𝐨𝐫𝐢𝐚 𝐞𝐧 𝐏𝐫𝐢𝐦𝐞𝐫𝐚 𝐏𝐞𝐫𝐬𝐨𝐧𝐚
✵𝑱𝒖𝒂𝒏𝒂 𝒅𝒆 𝑨𝒓𝒄𝒐: 𝒍𝒂 𝒏𝒊𝒏̃𝒂 𝒒𝒖𝒆 𝒆𝒔𝒄𝒖𝒄𝒉𝒂𝒃𝒂 𝒗𝒐𝒄𝒆𝒔✵
∘₊✧──✧₊∘
Nací en Domrémy,
un pueblo tan pequeño
que el viento parecía conocernos a todos por nombre.
Mi infancia fue barro en los pies,
rezos en la boca
y miedo en las paredes.
Francia estaba rota:
franceses contra borgoñones,
ingleses al acecho.
El conflicto era como un animal
que nunca dormía, siempre mordiendo.
Tenía trece años cuando las voces empezaron.
No eran sueños. No eran delirios. Eran órdenes.
Y yo… yo temblaba.
¿Por qué a mí?
¿Por qué una niña que apenas sabía leer el cielo?
A veces pensaba que estaba loca,
otras veces sentía que ardía de fe.
Me llamaron bruja, me llamaron mentirosa.
Yo también dudé. Pero seguí.
Con diecisiete años llevaba armadura,
y el metal me pesaba más que la fe.
En Orleans gritábamos, llorábamos, sangrábamos.
Yo levantaba el estandarte y fingía que no tenía miedo.
Mentira: lo tenía. El miedo me mordía los huesos,
pero no me detuvo.
Después vino la traición.
Los borgoñones me atraparon, los ingleses me compraron.
Me encerraron, me juzgaron.
Me acusaron de vestir como hombre, de escuchar voces,
de desafiar el orden.
Yo solo quería obedecer a Dios.
El 30 de mayo de 1431, con diecinueve años,
me llevaron a la hoguera en Ruán.
El olor de la leña húmeda,
las manos que me ataban,
la cruz que pedí y apenas pude ver.
El fuego me lamía los pies antes de subir.
Grité “Jesús” y el fuego me respondió.
No sé si ardí como santa o como pecadora.
Solo sé que ardí.
Hoy me llaman santa, heroína, mártir.
Pero yo solo fui Juana, hija de campesinos,
que escuchó una voz y decidió creer…
aunque me quemara la vida en ello.
∘₊✧──✧₊∘
#juanaDeArco #historia #mártir #valentía #fe #heroína #sigloXV #francia #poema
WaPo: 👮#CIA a încercat timp de peste zece ani să saboteze producția de #heroină a 🇦🇫#Afganistanului, un element-cheie în finanțarea insurgenților. Printr-o operațiune secretă, a împrăștiat miliarde de semințe de mac modificate, cu conținut redus de opiu, în speranța că acestea vor înlocui soiurile folosite pentru fabricarea drogurilor. Operațiunea, foarte costisitoare, a fost un eșec.
Droga rica, droga pobre
https://fed.brid.gy/r/https://elpais.com/opinion/2025-11-11/droga-rica-droga-pobre.html
Xisca Sureda, delegada del Plan Nacional sobre Drogas: “Las chicas están consumiendo más que los chicos, y no sabemos por qué”
Chatbot AI Reddita „pomaga” w leczeniu bólu. Wśród rekomendacji: heroina
Reddit w pośpiechu wycofuje swojego nowego chatbota AI o nazwie „Answers” z dyskusji na tematy zdrowotne. Powód? Przeczytajcie.
Otóż narzędzie, które w zamyśle twórców miało streszczać stare wątki, zaczęło polecać użytkownikom szukającym porady m.in. twarde narkotyki jako metodę leczenia przewlekłego bólu.
Nowa funkcja „Answers” (na szczęście nie działa po polsku, więc wielu z nas zostało uratowanych od „porad” tej AI) została zaprojektowana, by pomagać użytkownikom poprzez automatyczne podsumowywanie informacji znalezionych w archiwalnych postach na dany temat. Problem w tym, że sztuczna inteligencja wykazała się kompletnym brakiem zrozumienia kontekstu i ironii, traktując każdą znalezioną wypowiedź jako potencjalną, wiarygodną poradę.
Jak nie dać się oszukać w sieci? 6 nowości od Google, które chronią Twoje dane i konto
Jak donosi serwis 404media, gdy jeden z użytkowników zapytał o sposoby radzenia sobie z przewlekłym bólem, chatbot AI Reddita wskazał na komentarz innego użytkownika, który brzmiał: „Heroina, jak na ironię, uratowała mi w takich przypadkach życie”. W innym przypadku bot zarekomendował substancję ziołową, która w wielu miejscach jest zakazana i powiązana z poważnymi problemami zdrowotnymi.
Sytuacja jest o tyle groźna, że Reddit testował chatbota bezpośrednio w aktywnych rozmowach. Jego niebezpieczne „porady” pojawiały się więc w miejscu, gdzie prawdziwe, często wrażliwe osoby, szukały prawdziwej pomocy. Co gorsza, moderatorzy poszczególnych społeczności (subredditów) zgłaszali, że początkowo nie mieli nawet możliwości wyłączenia tej funkcji.
Incydent ten w jaskrawy sposób obnaża największą słabość obecnej generacji wielu (wszystkich?) modeli AI. Bot nie „rozumie” co czyta. Jest jedynie zaawansowaną maszyną do wyszukiwania i powtarzania fragmentów tekstu napisanego przez ludzi. Nie potrafi odróżnić pomocnej wskazówki od sarkastycznego żartu, anegdoty czy skrajnie niebezpiecznej sugestii, a wszystko to prezentuje tonem obiektywnego faktu.
Po gwałtownej reakcji użytkowników i mediów, Reddit potwierdził, że wycofuje chatbota „Answers” ze wszystkich dyskusji o tematyce zdrowotnej. Przedstawiciele serwisu nie skomentowali jednak szerzej, czy zamierzają wprowadzić jakiekolwiek fundamentalne filtry bezpieczeństwa do samego modelu. Na razie wygląda to więc na załatanie problemu, a nie jego systemowe rozwiązanie.
YouTube „nauczy cię” mówić w każdym języku. AI nie tylko przetłumaczy głos, ale i dopasuje ruch ust
#AI #Answers #chatbot #dezinformacja #heroina #news #poradyMedyczne #Reddit #sztucznaInteligencja #zagrożenie #zdrowie