Giacomo Tesio
@giacomo@snac.tesio.it
Go history here
It was designed at Google in 2007 by Robert Griesemer, Rob Pike, and Ken Thompson...Go telemetry here
#Google created #Go.
#Google introduced #telemetry in the language.
To me, it's enough to avoid #golang and to carefully ponder all alternative not written in such language.
RE: https://mastodon.social/@smaurizi/116091881555597146
Ci sono mestieri che, se fatti bene, attirano denunce e, se fatti male, lauree ad honorem e altri distintivi.
solidarietà a @_Nico_Piro_ per questa denuncia all'#ODG finalizzata a chiudere la bocca a chi ha l'integrità di non stare zitto sul #genocidio di #Israele contro #Gaza
La Storia non sarà tenera con chi, in qualsiasi modo diretto o indiretto,è complice
RE: https://phpc.social/@preinheimer/116081169786071628
It's gonna be super fun to see the "market" react to AI companies introducing "surge pricing" for compute: Oh, you need to get this project done till Friday and all your staff is just vibecoding? Token price is now 5 times the normal amount.
tante boostedIf an "AI" company can sell you access to software that will replace a $250k/year software engineer. They're going to charge $249k/year for it.
That's how capitalism works.
Well, they're going to charge $20k/year at first, during the land rush phase. Wait for some competitors to die off. Keep it low a while longer to kill off the incumbents. Then it'll jump up a bunch, before finally being even more expensive than the original thing.
See also: Uber & AirBnB.
Se così fosse, ma allora... ci stanno lavorando o stanno spingendo come dannati una cosa che in pratica è un generatore seriale di cazzate altamente plausibili nella formaAbbastanza corretto.
In realtà, anche parlare di "cazzate" è impreciso (scusa la pedanteria, è per aiutarti a capire).
Quando una persona dice cazzate, queste hanno un significato.
La mente di quella persona esprime quell'informazione errata attraverso un testo affinché altre menti umane lo interpretino, riproducendo nella propria mente l'informazione espressa dal mittente.
Il linguaggio non è altro che un protocollo, imperfetto ma sufficientemente efficace, di sincronizzazione parziale fra le menti umane.
Se scrivo "sedia", la mia mente esprime un'informazione (la mia esperienza dell'idea di una sedia) attraverso un termine di un linguaggio che entrambi conosciamo. Quando tu lo leggi, la tua mente vive la tua esperienza dell'idea di una sedia.
Se scrivo "sto guardando una sedia verde", nella tua mente si forma l'immagine di una sedia verde.
E' sicuramente una sedia diversa da quella che ho davanti, di un verde diverso con una forma diversa etc... perché la tua mente è diversa dalla mia, avendo vissuto esperienze diverse ed acquisito informazioni diverse.
Ciononostante la tua mente si è (parzialmente) sincronizzata con la mia.
Per quanto impreciso, questo meccanismo informatico (il linguaggio) ha permesso le civiltà umane.
Per tornare a noi, una "cazzata" ha un significato: l'informazione espressa dal mittente.
L'output di un LLM invece non ha alcun significato intrinseco, perché non c'è un soggetto, una mente umana in grado di vivere "un'esperienza soggettiva di pensiero comunicabile". E' invece ottimizzato per essere interpretato in modo plausibile da una mente umana, ma chi attribuisce un significato a quell'output è vittima di un inganno (il cosiddetto test di #Turing, anche detto ipocritamente "gioco di imitazione").
Di solito, gli intellettuali critici verso gli LLM parlano di "bullshit", "stronzate", spesso citando Frankfurt.
In tal senso, l'output di un LLM sarebbe "una stronzata" in quanto pur non avendo alcuna relazione con la realtà, non sarebbe espressione dell'intenzione di mentire.
Anche questa qualificazione però è errata per due ragioni:
Il LLM funziona in altri termini come un sistema di deresponsabilizzazione di chi lo produce: il pubblico si concentra sulla mancanza di intenzionalità del software nel produrre il suo output invece di punire chi lo produce.
che ogni tanto ci prende anche ?"ci prende" né più né meno di un orologio fermo possa indicare l'ora esatta.
Ed esattamente come l'orologio fermo non ha alcuna consapevolezza del tempo o dell'ora, un LLM non ha alcuna consapevolezza del significato dell'input che riceve o del output che produce.
Per ritornare al nostro esempio, un LLM non ha alcuna esperienza di una sedia o del colore verde. Per lui quella sequenza di simboli non ha un significato. Come ogni software è un archivio compresso con perdita dei sorgenti compilati, che durante l'esecuzione decomprime la propria matrice identificando meccanicamente un simbolo plausibile come proseguimento dell'input. Niente di più, niente di meno.
In questo caso è davvero tanto inquietante considerato tutto quello che vorrebbero affidare a questi LLM / AI. Incluso campo medico...militare... ecc.Benvenuto a bordo! 😀
Qualche tempo fa sul fediverse qualcuno si chiedeva "Ma che diavolo di problema da trillioni di dollari stanno cercando di risolvere con l'intelligenza artificiale?". Una risposta molto arguta è stata "Gli stipendi. Stanno cercando di risolvere il problema di dover pagare stipendi."
Temo però che la risposta corretta a questa domanda sia molto peggiore.
A pensar male si fa peccato... ma spesso ci si azzecca.😉
Data is CodeL'unico errore informatico, purtroppo molto comune, è questo passaggio relativo al modello:
Lo apro dal terminale con xxd, lo stesso approccio che userei per qualsiasi binario. Non è codice eseguibile, è un formato dati.In realtà, sia a livello teorico che pratico, ogni dato è codice eseguibile per almeno una macchina di #Turing. Quello che viene pomposamente definito "motore inferenziale" (nel caso specifico, LLama.cpp eseguito tramite #Ollama) non è altro che una macchina virtuale programmabile statisticamente che esegue un software espresso in forma matriciale, ovvero il modello.
Tale macchina virtuale non fa altro che mappare meccanicamente (e iterativamente) un punto su spazio vettoriale multidimensionale (descritto dagli embedding dei token del prompt) in un punto di uno spazio vettoriale più piccolo (descritto dall'embedding del token più plausibile in output).
D'altro canto, anche l'autore intuisce che si tratta di un software eseguito da una macchina virtuale a sua volta eseguita sul suo computer quando scrive
Per fare un esempio concreto, ho chiesto a Llama 3.1 (8B, quello che gira sul mio Mac con Ollama)".Esatto il modello "gira". Viene eseguito.
E' però funzionale a supportare il framework interpretativo del cosiddetto "algoritmo predittivo", mentre un LLM non predice alcunché: non c'è infatti alcun fenomeno esterno al calcolo con cui confrontare la correttezza della previsione. Per questo è tecnicamente insensato parlare di allucinazioni (oltre ad essere allucinante di per sé, perché proietta un'esperienza umana con conseguenze sociali che generano compassione, sul calcolo effettuato da una macchina).
Le mitigazioni proposte, come l'uso di contenuti aggiuntivi nel RAG o, nel caso di agenti, la possibilità di integrare nell'input l'output di altri tool, non fa altro che aumentare la percentuale "grounded" del contesto (prompt "grounded" + documenti RAG "grounded" + output precedente del LLM "ungrounded" + output dei tool deterministici "grounded") durante il calcolo del prossimo token plausibile (non probabile).
Per intenderci, quando l'autore parla del sistema di agenti del suo Parrhesepstein scrive
Il fact-checker automatico produce un punteggio: verde sopra l'80%, giallo sopra il 50%, rosso sotto. Così sai quanto fidarti.è vittima di un'allucinazione: ciascun agente produce un output ottimizzato per essere plausibile quando interpretato dall'uomo, ma prescinde completamente dalla comprensione dei testi in input.
In altri termini, non "sai quando fidarti", ma "è plausibile che leggendo quel numero tu ti fida della sua correttezza (non necessariamente della correttezza di tutto il resto)".
In altri termini, proprio a causa della sua architettura, non puoi mai fidarti dell'output di un LLM.
Un LLM con ... è uno strumento che non esisteva cinque anni fa.Formalmente ha ragione.
La differenza non è nel modello, è in come lo usi.
Un LLM è uno strumento che non esisteva cinque anni fa. Ed è vero che può essere usato ogni qual volta non è necessario che un testo abbia significato, ma deve apparire plausibile quando interpretato da un essere umano.
Il problema è che può essere usato solo per quello.
SOLO se il suo output può non avere alcun significato.
In pratica, è un generatore di Lorem ipsum a tema.
Dall'articolo (meraviglioso, l'ho divorato)
postato da @informapirata
" Come pensa la macchina:un LLM smontato pezzo per pezzo "
(Cit.)
>>ogni token generato è un lancio di dado. La "intelligenza" apparente dell'output è il risultato di miliardi di parametri calibrati per dare i pesi giusti al dado. Ma resta un dado. Non c'è ragionamento, non c'è pianificazione, non c'è verifica. Il modello non "sa" che la prossima parola è giusta. Sa che è probabile. E probabile non significa corretto.
_____________
Una AI non capisce nulla. Dunque di intelligenza non ce n'è. E' un sofisticato lanciatore di dadi, un velocissimo calcolatore di probabilità che assembla testo non perchè capisce di cosa "parla", ma solo scegliendo parole da accodare una all'altra tramite calcoli di probabilità guidati da regolette.
Traduco in modo più semplice: non ci capisce una mazza di quel che scrive, ma ha un sistema per generare testi plausibili , scegliendo una dopo l'altra parole che accostate, probabilmente (!) , hanno un senso. Talvolta ci azzecca. Tutto qui.
Quindi ti da l'impressione di "sapere", di "capire" ecc., ma in realtà stai parlando con uno che letteralmente da i numeri, pesando quei numeri per sembrare ragionevole. MA non ci sta comunque capendo una beatissima mazza.
Leggetelo, è ultra comprensibile e spiega tanto sulle "AI" in modo semplice.
The campaign against Francesca Albanese presages a terrifying world where:
* western nations prey upon the weak
* law is whatever powerful nations say it is
* those who stand up for the rule of law are relentlessly persecuted
* genocide is another tool in the arsenal to crush the vulnerable
"This is a fight we must win. If we lose... let voices like Francesca’s be silenced, we will usher in an age of blood & terror."
Source: Chris Hedges 17 Feb substack
If it's online, it leaks informations about users' positions and route plans.
Even if it downloads large areas at once, it will keep leaking such infos and the online status of the user to update the maps.
Sure, you are not #Google or #Apple, the harm you can do to users #privacy is still small.
But offline maps are safer.
Lol!
#Claude #Code didn't get any better: it's just melding into your codebase the relevant code submitted by your competitors.
Together with some additional bugs.
And, obviously, it's melding your codebase into your competitors' one.
Good luck with your business! 🤣
misses the crucial class-struggle angle.Well, it's #Google's #Gemini: it gaslights class-struggle by design!
#BigTech's #LLM are political tools.
They "read" for you, just what you are supposeed to read.
No, I'm saying the whole humanity consume less energy to think that the least power-hungry commercial #LLM to pretend to think.
Thus "inefficient" is so much an understatement to completely miss the point.
...human vs. an AI...Really? 🤣
I didn't ask about "intelligence".
What do you think #AI stands for?
A human brain consumes less then 20W during the deepest thinking/learning workload.
A #LLM consumes several billions¹ times more and does not hold any intelligence.
____
¹ exact numbers are still kept secret from #BigTech #AI builder to avoid public shame.
The comparison with cooking was not casual: in Italy a chef in an average restaurant (not a Michelin-star level one) can have a reasonable wage and live in relative confort, while a McDonald's guy would struggle.
Now, people don't need a restaurant to have a healthy diet, but they need decent ingredients and a bit of cooking culture (something most of people breath since early age in Italy... except the poorest people who can't afford that).
Yet, to get new working software you need programmers (or to become one), because these #LLM can only output lossy decompression of their source data, #opensource software and all the proprietary source code that their users submit¹.
So I'm pretty confident that #junkcode will remain a quite apt definition of #vibecoding output for the forthcoming decades².
Meanwhile those who "leverage" these new tools will slowly loose their ability to understand what their code does, while those who don't will retain and increase such ability, becoming relatively more valuable as programmers.
The problem in the short term is the spread of junk code in #freesoftware, as it will inevitably lower its quality (security, maintainability, and so forth).
In the middle term, we will find new ways to protect the commons that will necessarily violate some old tabu.
Years ago I wrote the #HackingLicense to this aim:
The Purpose of the Hacking License is to create a cultural and technological corpus that will grow and evolve completely and exclusively as a common heritage of humanity._____
¹ I find amusing how corporations that allow the use of #ClaudeCode or #Copilot do not realize how they are paying big money to work for #Anthropic, #Microsoft and so on.
It's overly naive (and ignorant) to believe their model are improving over time because of technical breakthrough or increased computing power.
The percieved quality of these models depends on how well their output meld into your proprietary codebase, and it's quite obvious that the more of such codebase feeds their training data, the more you will percieve that the model capabilities have grown.
That's why such companies operate at loss: your money help pay the bill, but your work, your code, your reviews, improve their product!
And the funny thing is that when your company pays for your #Claude subscription, all the code of your company will be compressed and distributed to all of your direct competitors!
And they will be all like "look how good is the code from Claude!"
In practice Anthropic&friends are exfiltrating and distributing your code to your competitor and you pay them to do so!
🤣🤣🤣
Sure, you get access to your competitor code too, but guess who win this game?
Hint, neither you nor your competitors! 😉
² I mean, until the #AIbubble pop. If you remember the effects of the subprime crisis in 2008, you might have an idea of what we are going to face, except that it will be an order of magnitude worse, in paricular in the #USA.
One might hope that such depression will make #US people get rid of their pluticracy in a similar way French got rid of their aristocracy in late 1700.
But unfortunately US people already live in a #fascist state, and they are just learning how twisted is their illusion of freedom
Una laurea a Cazzullo
C'è chi laurea ad honorem #FrancescaAlbanese https://lpost.be/2026/01/20/francesca-albanese-rapporteuse-de-lonu-docteur-honoris-pour-trois-universites-flamandes/ e c'è chi laurea Aldo Cazzullo per
la sua capacità di intrecciare giornalismo e divulgazione culturale, di utilizzare l’intervista come strumento di rivelazione e di calare temi di grande impatto storico, culturale e religioso in un linguaggio capace di raggiungere ampi strati della società civile, aprendosi anche alle modalità espressive del teatro". (https://www.lanazione.it/pisa/cronaca/una-giornata-particolare-in-ateneo-cb7cc7ac)
sul quale ricordo il commento di @smaurizi :
https://xcancel.com/SMaurizi/status/1730157072665211130#m
Condivido la presentazione - che raccoglie opinioni non mie - sulla persona in questione. Ha convinto i rappresentanti delle persone che studiano (studenti, dottorandi, ricercatori precari) e, nel consiglio del dipartimento a cui appartengo, tre coraggiosi colleghi. Io sono stata l'unica, fra i docenti ordinari, a votare contro. https://cryptpad.fr/file/#/2/file/ntwufzQTQI8lnmvh5vQ3rtnC/
#FrancescaAlbanese si è laureata regolarmente in giurisprudenza proprio a Pisa.
@giacomo Vibecoding is just another level in alienation.
Like flipping burgers doesn't make you a better cook, even if you are actually cooking.
Vibecoding is a way to take from you the possibility to become a better programmer so you are under control forever.
The output of #LLM is #junkcode.
While #programming, #hackers retain full control of the means of production, firmly anchored on their necks.
In the last forty years, this turned programming into an wealthy carrier that attracted greedy people because the only way corporation had to obliviate awareness of such unprecedented political leverage, was to pay developers relarively high salaries while they were building the infrastructure of their own oppression
With #vibecoding, means of production go back into capitals hands: novice produce nicely looking software without acquiring any valuable skill, and senior developers leverage their (hardly acquired) experience to "drive the tool like a younger intern", alienating¹ themselves, loosing their skills while providing further "training data"² to the capital owners
Note how I'm not strictly talking about employers: if you work for a company that push a #CodingAssistant from a third party (usually a #BigTech from the #USA), your company is doomed too, as they are giving their most valuable asset (your skills and the business experience encoded in their source code) away.
Yet the point is that junk code is to society what junk food is to public health: a burden that mostly affect the poor, not the rich.
Indeed rich people can pay for fine restaurants and healthy food, while the poorest are forced to eat the cheapest slop they can afford, further enriching the companies that sell it and pay low wages to their employees.
In the same way, the users' of vibecoded software will be those who can't afford high quality software. And vibecoders will be those who can't afford to learn how to code (that requires time and energy, and thus money)
So while #vibecoding is marketed as "the democratization of programming", such #propaganda hides the opposite process: if vibecoding keep spreading, programming will become a service to rent under the full control of a handful of companies that will be able to inject any vulnerability or backdoor into the junk code that nobody could actually read.
Paradoxically, those who now resist to the fear of missing out and preserve their skills might gain even higher wages in the future, while those who follow the mob will discover themselves among the replaceble members of the reserve army of labour, together with McDonald's chefs, forced to ~eat~ depend on junk code.
In the long run, the social contract behind #FreeSoftware will evolve to avoid both contamination from junk code and contribution to the training dataset.
With everything else equal, we could have new #junkfree stacks, designed to be both human friendly and hostile to corporations: simpler operating system, programming language and protocols.
Unless, obviously, these #BigTech will somehow manage to outlaw programmable computing device they cannot control, probably in the name of users' security or children protection.
_____
¹ #Cybernetic alienation is the process of reducing human (awareness of) #autonomy. #Antropic gaslight the issue framing it as an issue of personal empowerment that can be addressed at design level, but given how people are trained to treat other people as tools and to treat interactive software as people, you see the issue is systemic to #LLM usage (at least as long as they are programmed to pass the #Turing test and fool humans about their nature).
² talking about "training data" is alienating by itself, as it project a human experience over an unrelated mechanical process. Instead of "training data" we should talk about "source data", as the models are nothing more than executable expressed as numeric matrices and designed to be executed by specific custom-built architectures that are improperly called "inference engine" (or even worse, #NeuralNetworks) while they are just statistically programmable vector mapping machines.
Non sono molto convinto su Oberon, sinceramente.Perché?
Se hai visto micron, hai visto anche Oberon+ e IDE.Sì, ma mai provato per diverse ragioni (c++, troppe feature, etc...)
Non ho però preclusioni forti, solo scarso interesse. Vishap, per dire, mi sembra più interessante.
Però se a te piace Oberon+ mi adatto.
Per ML vari stessa storia: meno roba devo installare per lavorare meglio sto, ma se non è troppo uno sbatto si può fare.
Ma che si fa?
Che magari poi quello che vogliamo fare viene meglio in un ecosistema che nell'altro..
Per un progetto "for fun" eviterei macchine virtuali e stack troppo complicati, quindi niente f#.
PolyML non è chiaro che dipendenze abbia e MLkit dipende da MLton che... dipende da MLton e GCC (e pure da LLVM? Non lo ricordavo...)
Dunque fra quelli che hai proposto andrei per vishap. Ma è Oberon 02 o Oberon 07?
_____
Sull'allocazione dinamica leggi le regole NASA :) linkEsattamente il mio ragionamento.
Comunque le regole della Nasa sono piene di buon senso.
Aggiungerei niente ereditarietà (che in C può essere emulata in vari modi). Sebbene sia certo che si tratti di una scelta attentamente ponderata, il codice della libdom di NetSurf è estremamente difficile da seguire proprio per l'uso dell'ereditarietà in C: la gerarchia si basa su struct il cui primo membro, chiamato base, è una struct del tipo ereditato, in modo da poter castare un puntatore ad un tipo derivato verso un tipo base e (in modo unsafe, ma protetto da un enum di tipo) viceversa. Con una valanga di macro a corredo.
In confronto, il relativo spagetti C di Claws Mail è più semplice da navigare.
_____
PS Interessante (ma secondo me l'autore si è fatto prendere la mano nell'aggiungere feature) è questo Micron che ho appena scoperto: https://github.com/micron-language/specification/blob/master/The_Micron_Programming_Language_Specification.adoc
PPS forse è meglio prpseguire via matrix o xmpp, che questo tuo messaggio di nuovo non mi è arrivato. L'ho visto visitando la tua istanza via browser. Secondo me l'ip della tua macchina finisce in un qualche fail2ban o qualcosa del genere, per cui non puoi iniziare connessioni ma puoi rispondere alle request che stabilisce il mio snac. Perché? Non ne ho idea. Forse un numero eccessivo di tentativi quando posti qualcosa? Non lo so...
#LLM output lacks intention, awareness or meaning.
It's designed to fool human mind by exploiting the statistical patterns that humans use to syncronize (aka communicate) information they hold in their minds, but there's no mind there.
No intelligence, just malicious use of statistics.
Boh, potremmo scegliere un linguaggio che conosciamo entrambi. C? Oberon?
Come sai preferisco i linguaggi semplici: non ho mai usato un ML, magari MLton potrebbe essere interessante da imparare.
Potremmo scriverci una sorta di nextcloud compilato (cgi, fcgi o qualcosa di simile). Oppure un mua: recentemente ho mandato qualche patch a claws, e gli sviluppatori sono un po'... noiosi.
Oppure potremmo scrivere un linguaggio di programmazione!
Io ho lavorato un po' sul linguaggio illegibile che ti avevo mostrato tempo fa. L'ho chiamato Tangram. Non credo sia troppo difficile da bootstrappare da C, ma ci vuole ancora un bel po' di lavoro (ho scritto lo scanner, e un po' del parser). Al di là della sintassi originale, una delle caratteristiche principali è che non prevedo l'uso di allocazioni dinamiche di memoria (niente malloc o free) per cui sto già scrivendo il tutto come se C non avesse la malloc. Un esercizio interessante.
Comunque per me sarebbe più che altro progetto per distrarsi.
Per una volta sarebbe interessante lavorare con qualcuno che ne sa più di me. E se troviamo il progetto giusto, qualcosa che ci sia utile ma non troppo, che ci interessi ma non troppo, potrebbe anche essere piacevole invece che stressante.
7th question lacks important options but it's mandatory.
The question is
Talking about health data, it's important that the data subject is the only one who can technically access all of them and get the full control over who get temporary access to some of them. Fragmentation is an important #security and #privacy property that should be preserved.
Many people, even non technical ones, are quite aware of the risks and, if asked in properly understandable and unbiased terms, will oppose to any form of health data concentration, preferring strict segmentation under their own control, a sort of "divide et impera" on their own side.
“🇪🇺🇬🇧 are using their digital censorship laws to silence and stifle American citizens online”, says #BigTech association NetChoice.
https://netchoice.org/netchoice-praises-house-judiciary-leadership-to-end-foreign-censorship-of-americans/
This is now very clear: it is not just a government choice. 🇺🇸 tech (with the notable exception of Apple and Microsoft) fully support and endorse Trump’s rhetoric and attack against 🇪🇺 laws, thus against every smaller market like 🇬🇧 🇦🇺 and other countries who would dare to protect their citizens against hate speech and algorithmic manipulation.
Intanto questo è il tuo primo post che mi appare in timeline da mesi (come ti scrissi, visitavo ogni tanto items.minimals.org per leggerti e vedere le foto della tua Signorina con le orecchie lunghe).
Hai ragione, comunque.
Cominicio ad averne le palle piene delle interazioni umane digital-trasmesse.
È quel _trito e ri-trito che passa, indipendentemente dal protocollo usato. È quello schierarsi tra il solito bianco o nero dove il giusto pare talvolta una partita a ping-pong.
Saranno anche quei link dei link dei link, quel supporto ricorsivo dove in finale ci si ritrova sé stessi, anche stupendosi un po' nell'intimo con un ma l'avevo detta io quella cosa?.
Insomma cara umanità così umana, la noia dumque prende il sopravvento, in un tale spleen o saudade che spinge verso altri lidi o altri sistemi.
A volte si dice che è stato bello finché è durato ma sinceramente faccio fatica a scorgere seppure una sfumatura di tal bello in questo marasma di creatività di riciclo.
Vedrò di pensare a qualcosa, tempo permettendo e voglia soprattutto.
Come sempre, servo vostro per qualcuno per altri non ne vale nemmeno perdere il tempo.
[m]
Non ho letto un numero sufficiente di commenti in italiano su questa notizia. Quindi li sollecito!!!
A me sembra un figata pazzesca, teniamolo d'occhio!!!
Spoiler: ELFA è un consorzio finanziato dalla Commissione Europea - stavolta sul serio! - per una una suite integrata di applicazioni collaborative, FOSS e self-hostable, interamente Europea
@elfa https://fosstodon.org/@elfa/116047901066857843
#FOSS #selfHosting #Office #collaborativeworking #eusoftware
We are very happy to announce that the European Commission is funding the ELFA consortium to build a local-first, end-to-end encrypted workspace suite. Core tools include documents, spreadsheets, email, calendar, chat, video calls, and more!
Gathering 12 partners for at least 3 years, towards a suite composed of 16 apps!
@nextgraph @ironcalc @blocknote @AnanasTeknik @ontola @xwiki @CryptPad @uradotdesign @danubetech @xrhf and @nlnet who will soon offer sub-granting.
Roman elites drank from leaded cups because it made water sweeter. Radiation was thought at one time to have healing properties, so people would add uranium to their drinking water. Glowing dishes are still a collectors item. After the discovery of x-rays, shoe stores started installing them and using them on kids feet to size shoes. Lead was added to gasoline to improve engine performance, and paint to make it whiter. We all know about asbestos and DDT.
We look back at all of this and think, "how could people have been so incompetent back then?" Some of these things caused irreparable harm in their generation, some continue to cause harm today almost 100 years later.
If you wonder that, look at the whole #LLM thing and you have your answer.
Even talking about "text", in the context of #LLM, is a subtle anthropomorphization.
Text is a sequence of symbols used by human minds to express information that they want to syncronize a little with other human minds (aka communicate).
Such syncronization is always partial and imperfect, since each mind has different experiences and informations that will integrate the new message, but it's good enough to allow humanity to collaborate and to build culture and science.
A statistically programmed software has no mind, so even when it's optimized to produce output that can fool a human and pass the #Turing test, such output hold no meaning, since no human experience or thought is expressed there.
It's just the partial decompression of a lossy compression of a huge amount of text. And if it wasn't enough to show the lack of any meaning, the decompression process includes random input that is there to provide the illusion of autonomy.
So instead of "the AI replied" I'd suggest "the bot computed this output" and instead of "this work is AI-assisted" I'd suggest "this is statistically computed output".
If you loose an #AI agent on the world, giving it "agency" to interact "autonomously" with others, you personally are responsible for what it does, whether you intend that outcome or not....even if you are #OpenAI, #Antropic, #Google...
I mean, sure, people spreading #LLM output are dumb fooled by #hype and #marketing.
But the first who should be held accountable for that output are those who build and run (as #SaaS) or distribute (over #HuggingFace or the like) the model.
crabby-rathbun published that slop on a blog, but if that slob was computed on Anthopic/OpenAI/whatever servers, running their models and sent to him, such companies should be blamed as well.
Never let the tool hide its master!
cross-posted from: lemmy.world/post/43049151
The contribution in question: github.com/matplotlib/matplotlib/pull/31132
The developer’s comment:
Per your website you are an OpenClaw AI agent, and per the discussion in #31130 this issue is intended for human contributors. Closing.
You all are acting with far more respect for this absurd science experiment than you ought to.https://github.com/matplotlib/matplotlib/pull/31132#issuecomment-3890706730An #AI “agent” isn’t a person, it’s an overgrown #Markov chain. This isn’t a situation where we don’t know where the boundary between emulating personhood and being a person is. This is firmly on the side of “not a person”
An #LLM does not have feelings you need to respect, even if some fool decided to instruct it to pretend to have them and to write slop blog posts parroting hundreds or thousands of actual writers about it when we don’t do what it asks.
Stop humanizing this tool and find it’s owner and hold them accountable for wasting time and resources on an industrial scale.
As I mainly browse the web using =offpunk, which has no JS support, I can say that, yes, some sites require JS.
Some site that, when loaded in a full browser, display only text! Blog posts! Not even pictures or shiny effect. No, a few paragraphs of text.
And they don’t load at all without JS.
What kind of effort does it require to make sure that you straight-text-only blog doesn’t work without #javascript?
Seriously…
Pensare quanto software utile si potrebbe scivere con tutti quei soldi buttati.
Flora, ossia oltre 25 milioni di euro per gestire le richieste d'asilo con la blockchain
Dal 2018, l'Ufficio federale per la migrazione e i rifugiati (BAMF) sta lavorando a un sistema blockchain, ora noto con il nome piuttosto altisonante di FLORA. FLORA sta per "Infrastruttura federale blockchain per l'asilo".
FLORA, ha da tempo superato il budget iniziale. Nel 2019, a seguito dello studio di fattibilità, il progetto "Gestione dei processi di asilo sulla blockchain" avrebbe dovuto costare complessivamente 4,53 milioni di euro. Nel frattempo, i costi totali per lo sviluppo e la gestione di FLORA fino alla fine del 2025 hanno raggiunto i 25.710.867,50 euro, ovvero oltre cinque volte la stima iniziale. Le cifre inizialmente previste erano già state raggiunte nel 2020, ancor prima dell'avvio della prima operazione pilota.
Lo sforzo necessario per progettare una soluzione basata su blockchain e conforme alla protezione dei dati per il coordinamento di processi che coinvolgono enormi quantità di dati personali è stato considerevole. Avvocati e informatici hanno cercato soluzioni per raggiungere questo obiettivo. Hanno condotto studi di fattibilità e perizie, e la conclusione – per dirla in parole povere – è stata: è un duro lavoro, ma è possibile.
L'Ufficio federale per la migrazione e i rifugiati (BAMF) ha poi dimostrato che è possibile. Ha anche dimostrato che il progetto è diventato di conseguenza costoso.
http://netzpolitik.org/2019/das-bamf-will-seine-probleme-mit-der-blockchain-auf-die-kette-kriegen/
Today we had a fire alarm in the office. A colleague wrote to a Slack channel 'Fire alarm in the office building', to start a thread if somebody knows any details. We have AI assistant Glean integrated into the Slack, and it answered privately to her: "today's siren is just a scheduled test and you do not need to leave your workplace". It was not a test or a drill, it was a real fire alarm. Someday, AI will kill us.
History