"We Care about your Privacy"

No you don't, you fucking assholes!

  • If you did care about #privacy, you'd not want to force 247 trackers down my throat, you lying pieces if shit!
    • If you cared about my privacy, you'd not even try to force a single #tracker on me and awould only use a #LoginCookie at most!

This shite really makes my blood boil because it's insulting the intellect of every person!

#privacy #StackExchange #InfoSec #OpSec #ComSec #ITsec #tracking #cookies #PopUps #JavaScript #Ensittification #Consent #InformedConsent #IT

Fuck me, the Stack Overflow beta is *horrible*.

Question pages look like a bastard mix between Reddit and ChatGPT.

The answer text area is auto-focussed and hijacking browser shortcuts.

There is no visible separation between question and answers.

https://beta.stackoverflow.com/questions

https://beta.stackoverflow.com/stack-content/questions/79895829/altering-varchar-length-on-partitioned-tables-in-postgresql-causes-index-recreation-why

#stackoverflow #stackexchange #softwaredevelopers #softwaredevelopment

Stack Overflow

Stack Overflow | The World’s Largest Online Community for Developers

Stack Overflow

@davidgerard

The best part, given what news/magazine reviewers have had to suffer today, is that they can write the reviews ahead of the movie even being made, or even greenlit.

Google's AI refused; but I just asked #Bing to write a review and #MicrosoftCopilot just did so.

It gives the movie 4/5 stars.

So it's only a matter of time until the #Wikipedia article and Movies #StackExchange questions. (-:

@cstross
#USMovies #AIslop #WhenCrungusMetLoab #MelaniaTrump

Honestly, I am not surprised Stack Exchange is dying. Fought the minimum password requirements for like 30 minutes in Ubuntu. FINALLY found the winning solution like 6 posts deep on Ask Ubuntu past what the AI was looking for and so forth. Tried to upvote. Got roundly rejected. "You can't upvote until you have a reputation of 20.” What the actual fuck? How do you expect community participation?? #ubuntu #stackexchange
#StackExchange, we have #AI, but no #2FA!

https://stackoverflow.blog/2025/12/24/the-great-unracking-saying-goodbye-to-the-servers-at-our-physical-datacenter/

A fucking Tragedy

Undeniably, Undebatably.

Environmentally? Tragedy.
Cost? Tragedy.
Just everything here is a Tragedy.

If you are able to run on your own hardware, fucking do it, there's no excuse to go cloud, especially if you already have the infra, even if you need to physically move it.

For fuck sakes.

Throwing away On-Prem or at least Self-Hosted is throwing away the Sovereignty of your Business, of your Data. You've just given all of your customer and business Data to Google. Good Job.

#StackOverflow #Stackexchange #Cloud #LocalHost

The Great Unracking: Saying goodbye to the servers at our physical datacenter - Stack Overflow

StackOverflow 的每月發問數量已經降到開站第一個月的等級了

在「Total monthly number of StackOverflow questions over time (data.stackexchange.com)」這邊看到的,Stack Exchange 有直接提供介面拉出來:「https://data.stackexchange.com/stackoverflow/query/1926661#graph」。 從下的 query language 可以看出來那個 1 是寫死的,跟每個月的一號沒關係,從 Graph 切到 Results 可以看到開站的 2008/08 是 3749 個,到了 2025/12 變成 3710 個,差不多是死掉的狀態了。 這邊有想到兩個重要的時間點,第一個是 2021 年五六月的時候 Stack Exchange 用 $1.

Gea-Suan Lin's BLOG
Is it me, or are people downvoting on #stackexchange more than they used to? I thought that on other people's answers, then it happened to one of mine.
Wenn ich nachsehen möchte, ob im #Formatstring für das Datum das kleine s für Sekunden und das große S für Millisekunden steht, dann frage ich das einen beliebigen #GPTbot (den, der nicht sagt #Quota exceded, weil ich mich nicht per #Api-Key identifiziert habe). Warum?

In #Wikipedia steht die Antwort möglicherweise. Es dauert aber, herauszufinden, in welchem Artikel, Listenartikel oder Unterartikel. Die #Suche von Wikipedia verwendet zwar #ElasticSearch, aber um die Vorteile von dieser starken Engine auch zu erhalten, hätten 100000e Menschen, die Wikipedia-Artikel auch verschlagworten müssen (#wikidata). Ausserdem kann es sein, dass etwas so praktisches wie formatstrings als #unenzyklpädisch eingestuft wurde und daher entfernt.

In #Stackexchange muss ich mehrfach bestätigen, dass ich ein Mensch bin, finde dann einen Artikel, der unbeantwortet geschlossen wurde, weil #Duplikat. Dann zwei veraltete, die inzwischen falsch sind, dann welche mit einem nicht mehr funktionierenden link auf die Lösung.

Bei #archive_org, archive.is und #AnnasArchive muss ich die #URL des gesuchten Artikels wissen, um suchen zu können.

Eine #Suchmaschine sucht nicht. Eine Suchmaschine liest die "Sutemap.XML" Dateien aus, die websitebetreiber online stellen für die #crawler der Suchmaschinen. Ich finde also fünf Jahre alte Artikel auf Websites die seit fünf Jahren nicht mehr gepflegt werden. Und maximal ein jahr alte Artikel, die meine Frage nicht beantworten aber in der #sitemap stehen. Die 100 Websites, die die richtige Antwort in einem zwei bis vier Jahre alte Artikel enthalten, finde ich nicht, weil diese Artikel nicht mehr in der sitemap stehen.

Die GPTbots haben Wikipedia, stackexchange, Archiv.org, Annas archive und alle Websites gescrapt und dabei #robots.txt und sitemap ignoriert. Ich bekomme die richtige Antwort und zwar schneller als mit allen zuvor genannten Varianten.

Oder ich suche in #Grokipedia. Grokipedia besteht aus 1Million statischen seiten im #CDN von #Cloudflare die von wikipedia gescrapt wurden. Die suche ist ein GPTbot und 57mal besser als die suche in wikipedia.

@malteengeler @awinkler @evawolfangel @bkastl @Raymond @wikipedia