Fleeing teens drive wrong way on Auckland’s Southern Motorway, travel 40km on spiked tyres

The group of teens continued south on Te Irirangi Dr, travelling at speed on the wrong side of…
#NewsBeep #News #Headlines #40km #after #Arrested #aucklands #been #down #drive #driving #evade #fleeing #footpath #have #laid #motorway #mounting #NewZealand #NZ #on #police #southern #spiked #spikes #Teens #their #Travel #tyres #vehicle #way #wrong
https://www.newsbeep.com/154428/

🧩 This sterling silver bobby pin from our Doxos series is crowned with four of our unique spikes, set with deep blue sapphires, and soldered onto a hand-formed back with an upturned tip to effortlessly glide through the hair.
.
.
#heirloom #silver #jewelry #ArtDeco #spikes #fashion #slowfashion #style #design #designer #craft #craftsmanship #abstract #pattern #geometry #sculpture #structure #detail #precision #art #artisan #original #unique #pixelfed #puzzle
We’ve always been drawn to the flashy shine, assertive angularity, and bold weight of pyramid studs. In designing our Doxos series, we asked: what if this tough iconic form was re-imagined as intricately crafted heirloom jewelry? What if we fused the enduring archetype of spiked metal with precise linear geometry seen in Art Deco and High-Tech architecture?

From this exploration emerged the Xover0 spike—a form entirely our own, original and unprecedented. This bobby pin from our Doxos series is crowned with four of our unique spikes, soldered onto a hand-formed back with an upturned tip to effortlessly glide through the hair.
.
.
#heirloom #silver #jewelry #ArtDeco #spikes #fashion #slowfashion #style #design #designer #craft #craftsmanship #abstract #pattern #geometry #sculpture #structure #detail #precision #art #artisan #original #unique

Well that went quick. :)

I'll leave it for now to give it a fresh look later to finish it with more details.

#ink #illustration #punk #blue #lovely #innit #spikes #porcelain #bust #porcelainbust #mondaymotivation

Artist unknown. Attributed to Chris Bell, but no reliable sources.

#art #photography #contemporaryart #fetishphotography #fashion #fashionphotography #heels #latex #spikes

Spiked...

Bristling with spikes’: oldest known ankylosaur fossil found in Morocco

Extravagant armour and tail weaponry on Spicomellus afer fossil confound existing theories of how the species evolved

Spicomellus afer, now the earliest known example of the group, would have been around 4m in length and weighed around two tonnes. The fossil is missing the end of the tail, but fused vertebrae suggest that it would have culminated in a club-like structure, presumably used as a weapon to lash at rivals or predators. This suggests that adaptations for tail weaponry evolved around 30m years earlier than previously thought.

#dinosaur #spikes #ankylosaur #Morocco

https://www.theguardian.com/science/2025/aug/27/oldest-known-ankylosaur-fossil-found-in-morocco

‘Bristling with spikes’: oldest known ankylosaur fossil found in Morocco

Extravagant armour and tail weaponry on Spicomellus afer fossil confound existing theories of how the species evolved

The Guardian

merci @0xdefec7edcafe@piaille.fr du message et de la question.

mmmhhh...

"une définition formelle du mécanisme d'inférence des spiking neural networks? "

c'est pas une question facile :-)

Je vais essayer de répondre en étant le moins verbeux possible tout en restant le plus précis que possible, hésite pas à me reprendre.

Pour commencer, je définirais un mécanisme d'inférence comme la solution d'un problème inverse (par exemple, détecter un prototype / symbole extrait d'un dictionnaire et plongé dans une entrée bruitée) et on sait depuis belle lurette que le perceptron peut donner une réponse satisfaisante à ce problème, quitte à régulariser le problème en incluant des informations a priori, comme la connaissance que la représentation est parcimonieuse (cf par exemple https://laurentperrinet.github.io/publication/perrinet-04-tauc/ histoire de ressortir sans vergogne mes anciens travaux).

Là où les neurones impulsionnels sont différents c'est au niveau de la représentation de l'information : pour simplifier, la seule information qui sort d'un neurone, c'est le potentiel d'action, ce fameux spike - qui est effectivement "tirée" dans la zone de la gâchette ou cône axonique (cf https://fr.wikipedia.org/wiki/C%C3%B4ne_axonique). Biologiquement, la seule information qui vaille, c'est qui a tiré et à quel instant.

Un neurone tel qu'il est traditionnellement modélisé va émettre plus ou moins de spikes et c'est leur fréquence qui va encoder le message de sortie, cf le perceptron où l'utilisation des non-linéarités telles que le ReLU dans les réseaux actuels où on oublie carrément tous les mécanismes de tir. Mais par cette approximation, on dit explicitement que comme c'est la fréquence qui importe, alors le processus de génération n'a que faire de la précision de chaque spike individuellement, c'est la moyenne sur une courte fenêtre (typiquement une cinquantaine de millisecondes) qui importe. Mathématiquement, on considère que le processus de génération est un processus de Poisson inhomogène dont la fréquence de décharge étant la variable encodante.

Mais en jetant le bébé (la temporalité du spike) avec le bain (le motif spatio-temporel des spikes dans une population de neurones interconnectés), on perd une information d'encodage énorme. C'est le cheval de bataille de toute une communauté dont, en particulier, Simon Thorpe et les différentes générations d'étudiants qu'il a pu former (https://neurotree.org/neurotree/tree.php?pid=15537). L'idée est que l'on passe au niveau de la représentation d'un codage fréquentiel (hypothèse de Poisson) à un codage temporel. Il existe un certain nombre de ce type de codage (cf cette revue pour plus d'alternatives : https://laurentperrinet.github.io/publication/grimaldi-22-polychronies/), comme le codage par rang proposé par Simon : ce n'est pas la fréquence de décharge mais l'ordre d'émission des spikes qui importe. D'autres considèrent que c'est la synchronisation des spikes dans une population qui encode l'information - un mécanisme d'inférence étant alors la propagation d'une "synfire chain" et expliquerait les différentes oscillations observées dans le cerveau; ones alpha, beta, gamma, ...

Une hypothèse récente que je poursuis est basée sur un papier récent (pour les boomers) de 2006 par Izhikevich : au niveau de la population, c'est le motif spatio-temporel des spikes qui peut encoder l'information, la polychronisation. Et là on peut exploser la dimension du dictionnaire qu'on encode. Là où c'est génial, c'est que les neurones ont une contrainte majeure, ils sont relativement lents et ont des délais de communication, et ben justement ces délais de communication peuvent être utilisés conjointement avec les poids synaptiques pour créer un mécanisme d'inférence. Intuitivement, prenons l'exmple d'un symbole encodé par une volée de spikes qui soit comme une vague se déroulant d'un point de l'espace neuronal à un autre avec une certaine vitesse (comme une vague qui se déroule sur la plage), des délais ajustés suivant cette dynamique (plus long à l'initiation, plus court à l'arrivée) peuvent faire en sorte que ces impulsions, en voyageant sur l'arbre dendritique du neurone, vont toutes converger vers le corps cellulaire de ce neurone et appuyer sur la gâchette pour signaler la détection (cf formalisation dans https://laurentperrinet.github.io/publication/grimaldi-22-polychronies/). Ce formalisme s'applique à des formalismes d'apprentissage supervisé (assez proches de l'excellent SpikeProp de Sander Bohte) comme, par exemple, pour la détection du mouvement dans une image encodée par des impulsions (cf https://laurentperrinet.github.io/publication/grimaldi-23-bc/).

L'avantage ? Dans ce dernier papier, on montre pouvoir faire aussi bien qu'un perceptron classique, mais avec 500 fois moins d'énergie. Sûrement une inspiration qui explique l'utilisation de #spikes compte tenu des ressources énergétiques limitées de notre métabolisme (le cerveau consommerait de l'ordre de 20W) - à méditer la prochaine fois qu'on passe à côté d'un data center...

Feature detection using spikes : the greedy approach | Next-generation neural computations

A goal of low-level neural processes is to build an efficient code extracting the relevant information from the sensory input. It is believed that this is implemented in cortical areas by elementary inferential computations dynamically extracting the most likely parameters corresponding to the sensory signal. We explore here a neuro-mimetic feed-forward model of the primary visual area (V1) solving this problem in the case where the signal may be described by a robust linear generative model. This model uses an over-complete dictionary of primitives which provides a distributed probabilistic representation of input features. Relying on an efficiency criterion, we derive an algorithm as an approximate solution which uses incremental greedy inference processes. This algorithm is similar to 'Matching Pursuit' and mimics the parallel architecture of neural computations. We propose here a simple implementation using a network of spiking integrate-and-fire neurons which communicate using lateral interactions. Numerical simulations show that this Sparse Spike Coding strategy provides an efficient model for representing visual data from a set of natural images. Even though it is simplistic, this transformation of spatial data into a spatio-temporal pattern of binary events provides an accurate description of some complex neural patterns observed in the spiking activity of biological neural networks.

Next-generation neural computations