যেভাবে এআই আমাদের ভেতরের এলোমেলো চিন্তা পড়তে শিখছে
মানব মস্তিষ্কে নিরন্তর যে বৈদ্যুতিক সঙ্কেতের ঝলকানি চলে, তা দীর্ঘদিন ধরেই এত জটিল বলে মনে করা হতো যে সেটিকে বোঝা বা অনুবাদ করা প্রায় অসম্ভব। কিন্তু কৃত্রিম বুদ্ধিমত্তা সে ধারণা বদলে দিচ্ছে।
৫২ বছর বয়সী এক নারী। তিনি নড়ছিলেন না—শুধু শ্বাস-প্রশ্বাসের ওঠানামা ছাড়া। চোখ স্থির, মুঠো করা হাত। সামনে একটি স্ক্রিনে ধীরে ধীরে ভেসে উঠছিল শব্দ, গড়ে উঠছিল পূর্ণ বাক্য। এমন বাক্য, যা তিনি উচ্চারণ করতে পারেন না।
১৯ বছর আগে স্ট্রোকে আক্রান্ত হয়ে তিনি পক্ষাঘাতে আক্রান্ত হন। স্পষ্টভাবে কথা বলার ক্ষমতা হারান। কিন্তু এবার তার ভেতরের মনোলগ বা মনের ভেতরের কথা—তার চোখের সামনেই পর্দায় ফুটে উঠছিল।
এই অংশগ্রহণকারী, যাকে 'টি১৬' নামে শনাক্ত করা হয়েছে, তার মস্তিষ্কের সামনের একটি লোবে অস্ত্রোপচারের মাধ্যমে ক্ষুদ্র ইলেকট্রোডের একটি অ্যারে বসানো হয়। তিনি যখন মনে মনে শব্দ উচ্চারণের কথা ভাবছিলেন, তখন তার নিউরন থেকে উৎপন্ন সঙ্কেত একটি এআই-চালিত কম্পিউটার বিশ্লেষণ করে তা স্ক্রিনে টেক্সটে রূপান্তর করছিল।
যুক্তরাষ্ট্রের ক্যালিফোর্নিয়ায় অবস্থিত স্ট্যানফোর্ড ইউনিভার্সিটি-এ পরিচালিত এক গবেষণায় তিনি অংশ নেন। তার সঙ্গে ছিলেন অ্যামিওট্রফিক ল্যাটেরাল স্ক্লেরোসিস (এএলএস) রোগে আক্রান্ত আরও তিনজন। লক্ষ্য ছিল এমন একটি প্রযুক্তি পরীক্ষা করা, যা চিন্তাকে তাৎক্ষণিকভাবে লেখায় রূপান্তর করতে পারে।
গবেষকরা তাদের এই সাফল্যের কথা ২০২৫ সালের আগস্টে প্রকাশ করেন। এর কয়েক মাস পর জাপানের গবেষকরা 'মাইন্ড ক্যাপশনিং' নামক একটি কৌশল উন্মোচন করেন। এটি কোনো ব্যক্তি যা দেখছেন বা মনে মনে কল্পনা করছেন, সেটির নিখুঁত বর্ণনা তৈরি করতে সক্ষম। এই পদ্ধতিতে তিনটি ভিন্ন এআই টুলের মাধ্যমে মস্তিষ্কের স্ক্যান থেকে পাওয়া সংকেত অনুবাদ করা হয়।
এই গবেষণাগুলো নিউরোসায়েন্টিস্টদের জন্য মানুষের মস্তিষ্কের গভীরের কর্মকাণ্ড বোঝার এক নতুন জানালা খুলে দিচ্ছে। এটি এমন মানুষদের জন্য আশার আলো দেখাচ্ছে যারা অন্য কোনোভাবে যোগাযোগ করতে সক্ষম নন। শেষ পর্যন্ত এই প্রযুক্তি আমাদের একে অপরের সঙ্গে বা বিশ্বের সঙ্গে যোগাযোগের ধরনকেও আমূল বদলে দিতে পারে।
যুক্তরাষ্ট্রের ইউনিভার্সিটি অফ ক্যালিফোর্নিয়া ডেভিসের নিউরো-প্রোস্থেটিকস ল্যাবরেটরিতে কর্মরত নিউরো-ইঞ্জিনিয়ার মৈত্রেয়ী বৈরাগকর বলেন, 'আগামী কয়েক বছরের মধ্যে আমরা এই প্রযুক্তির বাণিজ্যিকীকরণ এবং বড় পরিসরে এর ব্যবহার দেখতে শুরু করব।' ইলন মাস্কের 'নিউরালিঙ্ক'সহ বেশ কিছু কোম্পানি ইতিমধ্যে এই প্রযুক্তিতে বাণিজ্যিক ব্রেইন চিপ তৈরির চেষ্টা করছে। মৈত্রেয়ী বলেন, 'এটি অত্যন্ত রোমাঞ্চকর একটি বিষয়।'
মানুষের মস্তিষ্কের সঙ্গে সরাসরি যোগাযোগের যন্ত্র তৈরির প্রচেষ্টা দীর্ঘদিনের, যা 'ব্রেইন কম্পিউটার ইন্টারফেস' বা বিসিআই নামে পরিচিত। মানব মস্তিষ্কের সঙ্গে সরাসরি যোগাযোগ করতে পারে—এমন যন্ত্র তৈরির চেষ্টা নতুন নয়। ১৯৬৯ সালে মার্কিন স্নায়ুবিজ্ঞানী ইবারহার্ড ফেটজ দেখিয়েছিলেন, একটি নিউরনের কার্যকলাপ দিয়ে বানরকে মিটার নড়াতে শেখানো যায়, যদি পুরস্কার হিসেবে খাবার দেওয়া হয়। একই সময়ে স্প্যানিশ বিজ্ঞানী হোসে ডেলগাডো একটি উন্মত্ত ষাঁড়ের মস্তিষ্ক দূর থেকে উদ্দীপিত করে তাকে মাঝপথে থামিয়ে দেন।
দশককাল ধরে বিসিআই-এর মাধ্যমে পক্ষাঘাতগ্রস্ত মানুষ স্ক্রিনে কারসর নিয়ন্ত্রণ বা কৃত্রিম হাত নাড়াতে পারলেও ভাষা বা জটিল চিন্তার অনুবাদ করা ছিল অনেক কঠিন। মৈত্রেয়ী বৈরাগকরের মতে, আগের কাজগুলো যেহেতু বানরের ওপর করা হতো, তাই সেখানে কথা বা ভাষা নিয়ে গবেষণা করার সুযোগ ছিল না।
কিন্তু সাম্প্রতিক বছরগুলোতে এ ক্ষেত্রে অভূতপূর্ব উন্নতি হয়েছে। ২০২১ সালে স্ট্যানফোর্ড ইউনিভার্সিটির-এর গবেষকেরা এক পক্ষাঘাতগ্রস্ত ব্যক্তিকে মনে মনে আকাশে অক্ষর লেখার কল্পনা করে ইংরেজি বাক্য তৈরি করতে সক্ষম করেন। তিনি মিনিটে ১৮টি শব্দ লিখতে পেরেছিলেন।
স্বাভাবিক মানুষের কথা বলার গতি মিনিটে প্রায় ১৫০ শব্দ। তাই পরবর্তী লক্ষ্য ছিল মস্তিষ্কের সংকেত থেকে সরাসরি ভাষা অনুবাদ করা। ২০২৪ সালে মৈত্রেয়ী বৈরাগকরের ল্যাবে এএলএস আক্রান্ত ৪৫ বছর বয়সী এক ব্যক্তির মনের কথা সরাসরি কম্পিউটারের পর্দায় টেক্সট হিসেবে রূপান্তর করা হয়—মিনিটে প্রায় ৩২ শব্দ, ৯৭.৫% নির্ভুলতায়। এটি ছিল বিসিআই-এর মাধ্যমে মানুষের দৈনন্দিন যোগাযোগের প্রথম বড় প্রদর্শনী।
এই প্রযুক্তিতে মস্তিষ্কের পৃষ্ঠে ক্ষুদ্র মাইক্রোইলেকট্রোড বসানো হয়। এগুলো নিউরনের সঙ্কেত সংগ্রহ করে। এরপর মেশিন লার্নিং অ্যালগরিদম সেই সঙ্কেতের ধরণ বিশ্লেষণ করে ভাষার ক্ষুদ্রতম একক—ফোনিম—চিহ্নিত করে।
গবেষকেরা এটিকে স্মার্ট অ্যাসিস্ট্যান্টের সঙ্গে তুলনা করেন। যেমন অ্যামাজনের অ্যালেক্সা শব্দ শুনে অর্থ বোঝে, তেমনি এখানে এআই স্নায়বিক সঙ্কেত ব্যাখ্যা করে।
এ পর্যন্ত সাফল্যগুলো মূলত 'অ্যাটেমটেড স্পিচ' বা কথা বলার চেষ্টার ওপর ভিত্তি করে ছিল। অর্থাৎ রোগীকে কথা বলার চেষ্টা করতে হতো। কিন্তু এতে অনেক পরিশ্রম হতো এবং গতি ছিল ধীর। স্ট্যানফোর্ড ইউনিভার্সিটির গবেষকরা এবার 'ইনার স্পিচ' বা মনে মনে বলা কথা সরাসরি ধরার পরীক্ষা চালান।
গবেষণার অন্যতম লেখক ফ্রাঙ্ক উইলেট বলেন, 'আমরা তাদের স্ক্রিনে একটি নির্দিষ্ট রঙের আকৃতি গুণতে বলেছিলাম, কারণ আমরা জানতাম এই কাজে আপনি মনে মনে সংখ্যা গুণবেন। এতে তারা মনে মনে সংখ্যা বলছিলেন—আর সেই সঙ্কেত মোটর কর্টেক্সে ধরা পড়েছিল।'
বাক্য কল্পনার এই পরীক্ষায় রিয়েল টাইমে ৭৪ শতাংশ পর্যন্ত নির্ভুলতা অর্জন করা সম্ভব হয়েছে। ফ্রাঙ্ক উইলেটের মতে, বর্তমান প্রযুক্তিতে মানুষের মনের সব কথা শতভাগ নিখুঁতভাবে ফিল্টার করা সম্ভব না হলেও বিভিন্ন টাস্কের মাধ্যমে মনের অব্যক্ত কথার ছাপ স্পষ্টভাবে বোঝা যাচ্ছে।
মৈত্রেয়ী বৈরাগকরের ল্যাব ২০২৫ সালে আরও একটি মাইলফলক অর্জন করে। তারা দেখান যে, শুধু শব্দ নয়, বরং গলার স্বরের ওঠানামা, গতি এবং ছন্দও অনুবাদ করা সম্ভব। মৈত্রেয়ী বলেন, 'মানুষের কথা শুধু স্ক্রিনের টেক্সট নয়। আমরা কীভাবে কথা বলছি বা প্রকাশ করছি, তার মাধ্যমেই আমাদের যোগাযোগের মূল অংশটি সম্পন্ন হয়।' তাদের প্রোটোটাইপটি এমনকি একজন রোগীর মনে মনে গান গাওয়ার সুরও শনাক্ত করতে সক্ষম হয়েছে।
উইলেট এবং মৈত্রেয়ী দুজনেই মনে করেন ভবিষ্যতে ইলেকট্রোডের সংখ্যা বাড়িয়ে এবং উন্নত অ্যালগরিদম ব্যবহার করে রিয়েল টাইমে আরও দ্রুত কথা বলা সম্ভব হবে। উইলেট বর্তমানে মস্তিষ্কের 'সুপিরিয়র টেম্পোরাল গাইরাস' নামক অংশটি নিয়ে কাজ করতে আগ্রহী, যা মানুষের শব্দ শোনার অনুভূতির সঙ্গে যুক্ত। এর মাধ্যমে যারা স্ট্রোকের কারণে কথা বলতে পারছেন না কিন্তু ভাষা বুঝতে পারছেন, তাদের সাহায্য করা সম্ভব হবে।
শুধু শব্দ নয়, মস্তিষ্কের সংকেত থেকে দৃশ্যমান ছবি বা সংগীত তৈরির গবেষণাও অনেক এগিয়েছে। জাপানের নাগোয়া ইনস্টিটিউট অফ টেকনোলজির সহযোগী অধ্যাপক ইউ তাকাগি ২০২৩ সালে 'স্টেবল ডিফিউশন' অ্যালগরিদম ব্যবহার করে দেখান যে, মানুষ যা দেখছে, মস্তিষ্কের সংকেত বিশ্লেষণ করে এআই দিয়ে তার অনুরূপ ছবি তৈরি করা সম্ভব। যদিও জটিল ছবি তৈরিতে এআই কিছুটা বিভ্রান্ত হয়েছিল, কিন্তু অনেক ক্ষেত্রেই মূল ছবির কাছাকাছি প্রতিচ্ছবি তৈরি হয়েছে।
২০২৫ সালে তাকাগি মস্তিষ্কের সংকেত থেকে সংগীত বা অডিও তৈরির একটি গবেষণা প্রকাশ করেন। যদিও সংগীতের পরিবর্তনশীল গতির কারণে এটি ছবির তুলনায় কিছুটা কম নিখুঁত, তবুও সংগীতের ধরন ও মৌলিক ক্যাটাগরি শনাক্ত করা সম্ভব হয়েছে।
তাকাগি মনে করেন, এই প্রযুক্তি দিয়ে ভবিষ্যতে সিজোফ্রেনিয়ার রোগীদের হ্যালুসিনেশন বা কল্পনাগুলো দৃশ্যমান করা যাবে, যা তাদের চিকিৎসায় সহায়ক হবে। এমনকি ভবিষ্যতে মানুষের স্বপ্ন দেখার দৃশ্যপটগুলোও এর মাধ্যমে পুনর্নির্মাণ করা সম্ভব হতে পারে। সরাসরি মন থেকে মনে যোগাযোগের সম্ভাবনাও এখন আর কেবল সায়েন্স ফিকশন নয়। তবে এসব যন্ত্রের ব্যবহারের ক্ষেত্রে নৈতিকতা এবং মানবাধিকারের প্রশ্নগুলো এখনও বড় চ্যালেঞ্জ হিসেবে রয়ে গেছে।
