Il critico di intelligenza artificiale Gary Marcus sostiene che le aziende tecnologiche non sono state in grado di anticipare e prepararsi completamente alle conseguenze dell’implementazione rapida della tecnologia di intelligenza artificiale (IA). Il progresso dell’IA negli ultimi mesi è stato senza precedenti, con innovazioni che superano il ciclo di pubblicità tipico della tecnologia. Microsoft ha presentato il nuovo modello “Visual ChatGPT” incorporando diversi tipi di Visual Foundation Models (VFM) tra cui Transformers, ControlNet e Stable Diffusion con ChatGPT. Inoltre, GPT-4 potrebbe essere rilasciato la prossima settimana.
Tuttavia, l’innovazione accelerata dell’IA ha un lato negativo. Quando Microsoft ha annunciato l’integrazione di ChatGPT nella sua linea di prodotti, Google ha subito una grande pressione per contrastarlo. Google ha presentato Bard, un concorrente di ChatGPT, ma ha commesso un errore di fatto durante l’evento dal vivo, costando alla società più di 100 milioni di dollari di capitalizzazione di mercato. Il Washington Post riporta che i dipendenti di Meta sono circolati promemoria interni che esortano l’azienda ad accelerare il processo di approvazione delle tecnologie AI.
Inoltre, la corsa per rilasciare l’IA generativa potrebbe comportare rischi reputazionali e la riluttanza delle aziende ad aderire ai loro principi di IA responsabile. Il critico di IA Gary Marcus ha sottolineato che le aziende tecnologiche non sono state in grado di anticipare e prepararsi completamente alle potenziali conseguenze della rapida implementazione della tecnologia di intelligenza artificiale di prossima generazione. Il modo in cui è diretta la ricerca sull’IA potrebbe cambiare a causa dell’interesse delle grandi organizzazioni per l’IA, che potrebbe danneggiare le molteplici dimensioni della ricerca sull’IA.
Ci sono preoccupazioni per il collasso del campo attorno a un singolo modello di intelligenza artificiale, come ChatGPT, che potrebbe portare a una mancanza di diversità nell’IA. Le grandi organizzazioni stanno spingendo i ricercatori a sviluppare o applicare ChatGPT, anche quando potrebbe non essere direttamente applicabile ai problemi che stanno attualmente affrontando. L’ex esperto di etica dell’IA presso Google, Alex Hanna, concorda che l’acquisizione di un singolo metodo particolarmente affamato di dati e calcolo ha effetti negativi intensi.
Nonostante gli sviluppi positivi nell’IA, le aziende devono essere consapevoli delle potenziali conseguenze negative dell’innovazione accelerata. Soprattutto, devono considerare la responsabilità etica e sociale di implementare la tecnologia di intelligenza artificiale.