Beh c'era da aspettarselo. Non sono sorpreso, ma manco un po'.https://go.theregister.com/feed/www.theregister.com/2023/09/25/ai_datacenter_price_rise/
@absc addio a #crapgpt gratis... 
@freezr

Non è mai stato gratis.

Non cambierà nulla per l'utente comune. Costerà sempre meno che assumere tizi incompetenti a prezzi ben maggiori per un hobbista.

Il che è cosa buona e giusta se, per esempio, ti piace scrivere.

@absc Ho un papà di un compagno di classe del grande, che adesso lavora come capo HR di una compagnia di "advertising on line"; fra le varie cose mi stavo raccontando che loro internamente stanno sviluppando una AI in grado di generare web banners e altra merda in automatico, e io ridevo e gli dicevo, tu ci togli il grafico e poi ci dovrai mettere il tecnico dell'algoritmo che ti costerà come i dieci grafici che hai licenziato e non avrà più fonti da dove attingere se stiamo tutti a casa.

E poi mi diceva che usa quotidianamente CrapGPT per scrivere contratti. Chiedondogli di trovare la clausola A, B, C e si lamentava del suo avvocato che aveva fatto copia e incolla da un altro contratto e ci aveva messo i dati sbagliati.

Quello che sta accadendo è come la favola del pusher che vende la droga di fronte alle elementari. Stanno assuefacendo le persone all'uso delle AI e quando sarà arrivato il momento gli faranno pagare a tutti gli interessi perché quando ti sei assuefatto a questo "modus operandi" poi non c'è ritorno.

@freezr

Tu parti dal presupposto che tutti i grafici producano qualche tipo di valore.

Io invece credo che la gran parte di essi sia tranquillamente sostituibile da un LLM, in quanto mediocri, come anche i programmatori.

Quella persona ha ragione: per fare web advertising di massa, un LLM addestrato con un buon dataset coprira' il 90% del lavoro, dandoti un risultato migliore ed a un nientesimo del costo. Per il restante 10%, se e' furbo, assumera' un grafico con i controcazzi. Non stiamo parlando di campagne pubblicitarie esclusive, porco cane, ma di product placement su pagine web, dove l'AD deve essere solo buono abbastanza. Ricordati che siamo solo all'inizio.

Quanto vuole un avvocato, come parcella oraria? $250 l'ora a dire poco? Le API di ChatGPT costano $0.0015 per 750 parole in input. Direi che non e' molto giustificabile che un avvocato faccia copia incolla sbagliando pure i dati a quel prezzo.

Poi possiamo discutere finche' vogliamo delle implicazioni legali del tutto e li' apriamo un vaso di pandora totalmente diverso.

Smettila di difendere l'umanita' e di romanticizzarla inutilmente. Personalmente, ne disprezzo la gran parte e se un LLM aiutera' a falciare via la mediocrita', ben venga. Se poi mi ritrovero' falcidiato, significa che facevo cacare per davvero.

Quelli bravi, invece, sfrutteranno lo strumento per fare ancora meglio il loro mestiere e di sicuro, non rimarranno a piedi con il lavoro.

La vera rivoluzione, come ho detto, sta nel fatto che gli hobbisti potranno sfruttare gli LLM come assistenti per fare cose prima impensabili. Fare editing di un libro? Copertine (come ho visto fare)? Qualsiasi altra cosa che, in precedenza, era inaccessibile per i costi proibitivi, in generale? Quanto costa un editor? Quanti soldi vuole un grafico per disegnarti la copertina di un libro bene? Gli hobbisti, come in tante cose nel passato, sono quelli che stanno guidando l'ascesa degli LLM e non potremo farci nulla in questo.

Tutti parlano di ChatGPT, ma puoi fare self-hosting, di Stable Diffusion, Alpaca, LLAMA & Co.

Tanti lo fanno gia' e ho capito che sara' meglio cogliere l'occasione, appena ne avro' la possibilita'.

@absc

Tu parti dal presupposto che tutti i grafici producano qualche tipo di valore.

No tu parti dal presupposto che qualunque compagnia o corporazione faccia producano qualcosa di valore, e di conseguenza abbiano bisogno della elite dei professionisti.

un LLM addestrato con un buon dataset coprira' il 90% del lavoro, dandoti un risultato migliore ed a un nientesimo del costo.

Io non so dei costi, ma immagino che gli esperti che manipolano questi algoritmi/modelli si faranno pagare bene, non penso che andresti a farlo per uno stipendio da grafico.

Le API di ChatGPT costano $0.0015 per 750 parole in input.

Adesso costano così con la maggiore domanda, e i costi che aumentano diariamente, diventerà un costo serio come lo è adesso il cloud, ma l'importante è infilare i pesci dentro la nassa che dopo non possono più scappare.

Smettila di difendere l'umanita' e di romanticizzarla inutilmente. Personalmente, ne disprezzo la gran parte e se un LLM aiutera' a falciare via la mediocrita', ben venga.

Vale quanto in apertura, e che facciamo con sette miliardi di persone? Restauriamo l'eugenetica così solo i migliori sopravvivono?

La vera rivoluzione, come ho detto, sta nel fatto che gli hobbisti potranno sfruttare gli LLM come assistenti per fare cose prima impensabili.

Fatti le pippe quanto ti pare, verranno cagate esattamente come se io chiedo a uno di questi modelli di farmi il codice del videogioco della mia vita.

puoi fare self-hosting, di Stable Diffusion, Alpaca, LLAMA & Co.
Tanti lo fanno gia' e ho capito che sara' meglio cogliere l'occasione, appena ne avro' la possibilita'.

Buon per te, perché anche il tuo lavoro è a rischio, sebbene per come vedo io la struttura del capitalismo non puoi togliere i lavoratori dall'equazione, non è così che funziona.

@freezr

No tu parti dal presupposto che qualunque compagnia o corporazione faccia producano qualcosa di valore, e di conseguenza abbiano bisogno della elite dei professionisti.

E saranno il tipo di compagnie dove i professionisti mediocri saranno falcidiati di piu'. Parlavo di mediocrita', ricordi?

Io non so dei costi, ma immagino che gli esperti che manipolano questi algoritmi/modelli si faranno pagare bene, non penso che andresti a farlo per uno stipendio da grafico.

E non saranno quelli che lavoreranno per l'azienda che assume i grafici. Tu comprerai una licenza di un modello, la darai al tuo grafico, al posto di 10 e lui che la sapra' usare, sara piu' produttivo. Per Stable Diffusion basta una workstation con una scheda NVIDIA discreta e funziona.

Poi ci saranno realta' piu' grandi che si faranno il training del modello in casa, magari. La questione per capire quale forma di uso prevarra', verra' fuori dalla legislazione che sara' dettata dalle case in corso (e che avverranno nel prossimo futuro).

Adesso costano così con la maggiore domanda, e i costi che aumentano diariamente, diventerà un costo serio come lo è adesso il cloud, ma l'importante è infilare i pesci dentro la nassa che dopo non possono più scappare.

Dipendera' da quanta concorrenza ci sara' sul mercato. Certo, avere una workstation che puo' far girare un LLM e' molto meno costoso che parlare di infrastrutture complesse, per dire. Non e' proprio un paragone corretto.

Vale quanto in apertura, e che facciamo con sette miliardi di persone? Restauriamo l'eugenetica così solo i migliori sopravvivono?

Ho idea che, come al solito, emergeranno professioni complementari, dove i "diversamente migliori" migreranno. E' successo e succedera', vedi l'informatica. Solo adesso, forse, si iniziera' a dare una sforbiciata alla gente che fa il programmatore non perche' gli piace, ma perche' paga bene, quando avrebbero voluto fare gli artisti o cose simili.

Io credo sara' inevitabile, ma non sono pessimista sul "cosa faremo con 7 miliardi di persone".

Fatti le pippe quanto ti pare, verranno cagate esattamente come se io chiedo a uno di questi modelli di farmi il codice del videogioco della mia vita.

Se puoi usare Linux e funziona, lo devi al fatto che gli hobbisti hanno potuto metterci le mani all'inizio, a costo ridotto, dandogli la spinta necessaria a diffondersi. Poi arrivarono i vari Red Hat & Co. .Fu cosi' per UNIX, che si diffuse non perche' migliore, ma perche' gli hobbisti e gli studenti potevano ottenerlo a costo ridotto.

GCC fu il primo vero compilatore C che un hobbista poteva usare per produrre codice performante e si diffuse a macchia d'olio perche' era gratis e veniva insieme alle distribuzioni Linux. Da li' si diffuse anche nelle software house. Chissa' perche' nessuno compra i compilatori di IBM?

Generalmente, quello che usi a casa, tendi a portarlo anche sul posto di lavoro, se da dei vantaggi non trascurabili. Se un hobbista sfrutta un LLM a casa per fare, Uhm.... cose senza spendere un rene, fra le quali magari scrivere codice, spingera' per averlo anche sul posto di lavoro.

Non significa che potrai chiedergli di farti il gioco della vita. Ma falangi di professionisti lo sfrutteranno come un altro tool nella loro cintura per fare meglio il loro mestiere.

Buon per te, perché anche il tuo lavoro è a rischio, sebbene per come vedo io la struttura del capitalismo non puoi togliere i lavoratori dall'equazione, non è così che funziona.

Secondo me, come ho detto, quello che succedera' e' che la gente passera' a fare altro. Tu scherzando hai menzionato che i grafici andrebbero a lavorare per i produttori di LLM. Non sarei sorpreso se succedesse qualcosa del genere.

Poi, seppure io odi l'umanita', non sono un catastrofista e ho idea che il cielo non cadra' per questo.

@absc

E poi succederà che andranno tutti a studiare all'università professioni che non possono essere sostituite dalle AI...

Poveri i miei figli... 

@freezr

Purtroppo sì. Ci saranno sempre più corsi di laurea equiparabili a" scienze delle merendine" e che andranno a sparire.

La tecnologia è inevitabile.

@freezr @absc mah nessuno può fare previsioni davvero, e mi sembra che nonostante la presunta "eugenetica" o più che altro meritocrazia che sottende, ci sia tanto ottimismo. Io non condivido, non capisco su cosa si fondi (ai che aiuteranno gli hobbisti? Sono così importanti gli hobbisti? Non si perderanno conoscenze e le élite scompariranno? In cosa pensiamo sia meglio per noi o l'umanità, visto che l'interesse ovunque è solo nei profitti?)
@filobus @freezr

Come ho detto, non credo all' eugenetica o a dimili baggianate.

Credo solo ci sarà una trasformazione di certe professioni che, purtroppo, non avranno più bisogno dello stesso capitale umano.

Io conosco l'informatica, gli hobbisti sono, letteralmente, quelli che hanno segnato i maggiori trend nella professione. Non esclusivamente, per carità.

IMHO, non si perderanno conoscenze, ma certe professioni, semplicemente, saranno meno di massa.

Le élite resteranno, spariranno i mediocri.

@absc @filobus @freezr io rimango abbastanza scettico, nel senso che non fossero pompate (== soldi) da colossi come Microsoft e Google, non ci sarebbe tutto questo hype IMVHO.

Ma staremo a vedere.

E Microsoft ci vede un modo per scalzare Google dalla ricerca ma non sembra abbia avuto un effetto significativo fin adesso: https://www.wsj.com/tech/ai/microsoft-bing-search-artificial-intelligence-google-competition-6e51ec04
Even AI Hasn’t Helped Microsoft’s Bing Chip Away at Google’s Search Dominance

The new Bing with AI chatbot is ‘cute, but not a game changer’

WSJ
@eriol @filobus @freezr

Ripeto: non ci sarà l'apocalisse, solo, molte professioni cambieranno.

Un LLM sarà solo un altro strumento utile per rendere più produttivo ci sa fare il proprio mestiere.

L' hype? Bah, quello non lo ascolto mai!

@absc @freezr si ho letto, intendevo eugenetica in senso esagerato e scherzoso, meritocrazia invece mi sembra più attinente
Ma non è importante, il problema dell'intelligenza artificiale è che può essere una black box, e lo può essere anche e non solo nello specifico tecnico, ma come fenomeno di massa e nella società. Deciderà anche quando non sarà a capo ma comunque punto nodale di processi su cui le masse (in cui siamo compresi tutti, anche le élite) non capiranno e non avranno controllo

@filobus @absc

Nel mio caso chi preparerà i file per la stampa?

Ho dei files in formato Tiff che pesano 100MB, queste AI lavorano in termini di immagini per un browser a 72... Per esportare quei files il mio (vecchio, una merda in verità) ci mette 10 minuto con tutto freezato...

Quante ore ci mette una AI per renderizzare tutti quei milioni di pixel? E se poi si è sbagliata? O c'è un imperfezione? A no c'è il grafico schiavo, ma a sto punto preferisco andare a raccogliere i pomodori che si infilassero la AI nel culo tutti quanti, inclusi gli hobbisti... 😂

@freezr @filobus

Boh? Hai fatto un esempio talmente specifico che bisognerebbe provare!

@absc @freezr scusate se mi intrometto, ma ho letto di programmatori che lo fanno non perché gli piace ma perché paga bene 🤣🤣🤣
@filobus @freezr

Certo, sono molti più di quanto immagini.

@freezr

Inoltre, scordi che si può fare self-hosting di un LLM, vedi stable diffusion ad esempio.

Appena comprerò una workstation con una GPU decente, mi ci butterò a capofitto.

@absc

@absc

Ma è quello che dico io!

Alla fine si dovrà impiegare un professionista per gestire l'algoritmo/modello a livello di codice, che costa come 10 grafici.

Un altro che sa come usare le parole chiavi, che costa come 2 grafici.

E poi mica ce ne puoi avere solo 1 per ruolo, te ne servono almeno 2, per un totale di 24 grafici virtuali.

Poi a un certo sti modelli si esauriscono perché la tendenza è di essere ripetitivi e accadrà l'inverosimile.

I 24 grafici disoccupati lavoreranno per chi vende nuovi dati per i modelli, altrimenti tutto si assomiglia. E quindi invece di pagare le licenze dei software si pagheranno le licenze dei modelli che saranno ben più care.

Senza contare che siccome fanno tutto coi piedi, e tu lo sai, ogni due anni deve stare ad aggiornare i servers che costano come due volte i 24 computers dei famosi grafici virtuali che se te li cambiano ogni 5 anni "è grasso che cola".

@freezr

No no, tu assumerai un grafico, che sappia usare un LLM decentemente invece che 10.

E quello, da solo, farà il lavoro di 10 persone.

non te ne fai niente dello "specialista dell'algoritmo". Comprerai, banalmente, una licenza ad un LLM e fine.

I grafici lavoreranno per chi fa gli LLM? bene! Vedi che avranno qualcosa da fare?

Stai dicendo cose che hanno poco senso, per il resto, mi spiace.

Come ho detto, l'umanità è sopravvalutata.

@absc:

Appena comprerò una workstation con una GPU decente, mi ci butterò a capofitto.

Per stable diffusion non serve qualcosa di pazzesco, io l’ho fatto girare su un fisso che ho assemblato nel 2017 che ha una 1060 (però con 6 GB di VRAM).

Ci sta su 1 minuto e mezzo (ovviamente dipende da quanti step chiedi, ma in genere appunto tra 30 e 40). Per sperimentare così a tempo perso penso possa bastare.

@freezr

@[email protected] mi sfugge di cosa stai parlando, il fatto che ora puoi dare in input voce e foto?
@bloved

No, l'articolo parla del fatto che gli hosting partner hanno alzato i prezzi del 30%.

Gli LLM, attualmente, sono parecchio esosi da far girare su scala.