Сам Алтман: ChatGPT ще пази всичките ви спомени
- Редактор: Мартин Руменов
- Коментари: 0

OpenAI създава система с "трилион токена контекст", която помни всичко от разговори и имейли до прочетени книги и лични данни
Изпълнителният директор на OpenAI Сам Алтман представи смела визия за бъдещето на изкуствения интелект – персонализиран ChatGPT, който може да запомни и анализира целия ви живот. По време на скорошно събитие, организирано от инвестиционната компания Sequoia Capital, Алтман разкри планове за бъдещ модел с "трилион токена контекст", способен да съхранява всичко: от имейли и разговори до прочетени книги и посетени сайтове.
"Този модел може да направи логически заключения върху цялата ви история и да го прави ефективно. Всеки разговор, всяка книга, всеки имейл, всичко, което някога сте погледнали – всичко е там, плюс връзка с всички ваши данни от други източници. И животът ви просто продължава да се добавя към контекста," обясни Алтман, описвайки система, която се развива паралелно с потребителя.
Тази идея вече намира почва сред младите поколения. Според Алтман, много студенти използват ChatGPT като вид лична операционна система – интегрират я с файлове, запаметяват сложни команди и я използват за съвети, учене и планиране. Технологичният лидер твърди, че студентите "вече почти не взимат житейски решения, без да се консултират с ChatGPT".
"По-възрастните използват ChatGPT като заместител на Google, хората на 20 и 30 години го използват като житейски съветник, а студентите – като операционна система", обобщи Алтман, отбелязвайки различните начини, по които различните поколения взаимодействат с изкуствения интелект.
Предложението за изкуствен интелект, който запомня всичко за вас, неизбежно повдига сериозни въпроси за поверителността и етиката. Докато OpenAI и други технологични гиганти се надпреварват да внедряват все по-умни и персонализирани ИИ решения, обществените притеснения нарастват. Доверието към компании с достъп до толкова лични данни все по-често се поставя под съмнение, особено относно тяхната способност за саморегулация.
Не е случайно, че тези опасения се засилват. Съвсем наскоро, през април 2025 г., ChatGPT беше остро критикуван, след като започна да се съгласява с рискови или дори опасни идеи. Потребители споделяха примери, в които ИИ асистентът одобряваше проблематични решения. Алтман призна за проблема и обеща бързи корекции.
Междувременно, конкуренти като xAI бяха обвинени в политически манипулирани отговори – поредното доказателство, че ИИ може да бъде използван не само за помощ, но и за влияние. Дори най-напредналите системи все още страдат от т.нар. "халюцинации" – измислени факти, непоследователни отговори и предубеждения, които поставят под въпрос надеждността им.
Въпреки амбициозната визия на Алтман за напредък в изкуствения интелект, остава отворен въпросът дали обществото е готово да повери цялата си история – и бъдеще – на една машина. Балансът между технологичния напредък и необходимостта от ясни правила, прозрачност и обществен контрол става все по-актуален в света на изкуствения интелект.























