Nel momento in cui il mondo si interroga sull’impatto di Claude Opus 4.6 di Anthropic sul mondo del lavoro, Mrinank Sharma, l’ingegnere che guidava il team di ricerca su sicurezza, affidabilità e responsabilità dell’AI, lascia la startup fondata da Dario Amodei.
Il post su X con cui il ricercatore ha divulgato il suo addio all’azienda lascia spazio a molte interpretazioni. Da un lato, le sue dimissioni possono derivare da motivazioni personali e da nuovi percorsi da intraprendere. Sharma parla infatti di studi di poesia - molti i riferimenti letterari e filosofici nella sua lettera di addio - e impegno nell’essere una «voce coraggiosa».
Dall’altro, però, non passa inosservato che frasi come «il mondo è in pericolo», includendo l’AI nei fattori della «policrisi» globale, e «ho sperimentato quanto sia difficile fare in modo che i nostri valori guidino le nostre azioni» arrivino proprio da un ricercatore nel campo dell’etica applicata all’AI.
Mrinank Sharma vanta un curriculum d’eccellenza, con un PhD a Oxford e una laurea a Cambridge in machine learning.
In Anthropic il suo team di ricerca si è focalizzato su temi come la AI sycophancy, ossia quella caratteristica dei chatbot e dei linguaggi Llm in generale di essere compiacenti con l’utente, anche a discapito della verità dell’informazione, e del contrasto al bioterrorismo tramite l’intelligenza artificiale, ossia la creazione di virus e patogeni con l’ausilio dell’AI.
Nel suo ultimo paper inoltre analizzava come le AI potessero indurre l’utente a credere in una realtà distorta.
Mentre il caso di queste dimissioni ha sollevato dubbi sui principi etici all’interno di aziende sviluppatrici di sistemi AI come Anthropic, la stessa startup ha assunto la filosofa Amanda Askell per insegnare principi morali come la differenza tra bene e male a Claude Opus 4.6, il prodotto di punta di Anthropic. (riproduzione riservata)