Orang pertama kali lihat Eilik bergerak, reaksinya hampir selalu sama: "Ini pake AI ya?" Wajar. Robot kecil itu kelihatan hidup, dia kaget kalau meja dipukul, terlihat bosan kalau lama nggak disentuh, dan berekspresi dengan cara yang susah dijelaskan tapi terasa... natural.
Padahal jawabannya tidak. Eilik tidak pakai AI. Tidak ada neural network, tidak ada tinyML, tidak ada model bahasa tersembunyi di dalamnya. Yang ada hanyalah hardware sederhana, firmware yang dirancang dengan sangat serius, dan pemahaman mendalam tentang satu hal yang sering diabaikan: behavior design.
Hardware yang Lebih Sederhana dari yang Kamu Kira
Kalau kamu bongkar Eilik secara konseptual, isinya tidak spektakuler. Ada 3 touch sensor, di kepala, punggung, dan perut. Satu physical button. IR sensor yang dipakai untuk dua hal: mendeteksi apakah robot sedang diangkat, dan mendeteksi getaran di meja. Microphone ada, tapi hanya untuk mimic sound, bukan speech recognition. Total motor: 4 buah.
Itu saja.
Untuk robot yang terasa sekompleks Eilik, daftar itu hampir mengecewakan. Tidak ada accelerometer. Tidak ada IMU. Tidak ada kamera. Tidak ada sensor jarak yang canggih. Kalau digoyang atau diputar, dia tidak bereaksi, karena memang tidak ada sensor yang menangkap itu.
Yang menarik, dari 4 motor itu kemungkinan konfigurasinya seperti ini:
| Komponen | Konfigurasi |
|---|---|
| Head / Body | Servo (position hold) |
| Arms | DC motor + encoder feedback (360° rotation) |
Coba gerakkan kepala atau badan Eilik secara manual, motor langsung melawan. Ini bukan kebetulan. Ada feedback control loop yang terus jalan: baca encoder, compare dengan target, koreksi. Tujuannya bukan sekadar menggerakkan robot, tapi membuat setiap gesture terasa stabil dan presisi. Hasilnya robot terasa "solid", bukan mainan murah yang longgar. Tapi justru di sinilah hal yang menarik mulai muncul. Hardware yang terbatas itu diperlakukan dengan sangat serius di level software.
Kepribadian yang Dibangun dari State, Bukan dari Kecerdasan
Inti dari behavior Eilik adalah sistem berlapis berbasis waktu idle, dan ini yang menciptakan ilusi bahwa robot punya mood.
Ketika kamu berinteraksi, ada immediate reaction yang langsung muncul. Setiap sensor punya mapping ke satu set animasi yang "cocok" secara emosional:
| Sensor | Respon Emosional |
|---|---|
| head touch | penasaran / berpikir |
| back touch | playful / bercanda |
| belly touch | lapar |
| IR lost (lift) | panik / takut |
| IR disturbance | sedih / kaget |
Yang lebih menarik adalah apa yang terjadi ketika kamu tidak melakukan apa-apa. Eilik tidak langsung diam. Setelah beberapa menit, dia masuk ke medium idle state, terlihat sibuk sendiri, melihat ke kanan kiri, melakukan aktivitas kecil yang tidak jelas tujuannya. Kalau lama tidak ada interaksi sama sekali, ada long idle state: speaker mati, IR sensor dinonaktifkan sebagian, animasi mengecil jadi loop kecil yang hampir tidak terlihat.
Robot terlihat "tidur". Bukan karena dia lelah, tapi karena sistemnya dirancang demikian, hemat baterai sambil tetap terlihat bernyawa.
Transisi antar ketiga state ini yang menciptakan ilusi kepribadian. Bukan AI. Hanya state machine yang didesain dengan empati terhadap bagaimana manusia mempersepsi "makhluk hidup".

Detail Kecil yang Bikin Bedanya: Animation Interrupt
Satu sistem yang sering luput dari perhatian, tapi inilah yang membuat robot terasa benar-benar responsif.
Tidak semua animasi bisa diinterrupt. Reaksi pendek, kaget, tertawa kecil, berjalan sampai selesai, tidak peduli sensor apa yang trigger di tengah jalan. Ini disengaja. Kalau animasi kaget bisa tiba-tiba berhenti di setengah jalan, hasilnya terlihat patah dan mekanis. Dengan membiarkan gesture selesai dulu, robot terasa lebih "solid" dan natural.
Sebaliknya, animasi idle yang panjang bisa diinterrupt kapan saja:
if animation.type == NON_INTERRUPTIBLE:
wait until finish
else:
if sensor_event:
stop animation -> play reaction
Kamu sentuh robot saat dia sedang "melihat-lihat", dia langsung stop dan bereaksi. Responsif, tidak kaku.
Perbedaan antara interruptible dan non-interruptible ini kecil secara teknis. Tapi dampaknya ke persepsi sangat besar. Itulah jenis keputusan desain yang tidak muncul dari AI, muncul dari seseorang yang benar-benar memikirkan bagaimana perilaku ini akan dirasakan, bukan hanya apakah perilaku ini bisa diimplementasikan.
Apa yang Bisa Kita Pelajari dari Eilik
Eilik adalah argumen hidup bahwa personality dan intelligence itu dua hal yang berbeda.
Kita terlalu sering menyamakan "robot yang terasa hidup" dengan "robot yang punya AI". Padahal yang menciptakan rasa hidup bukan kecerdasan komputasinya, melainkan timing, mapping emosi yang tepat, state yang berlapis, dan konsistensi dalam merespons.
Banyak developer yang membangun sistem interaktif, chatbot, virtual assistant, bahkan UI aplikasi, terlalu fokus pada kecerdasan modelnya tapi mengabaikan behavior design. Hasilnya responsif secara teknis tapi terasa dingin. Menjawab pertanyaan tapi tidak terasa seperti sedang "berbincang". Efisien tapi tidak engaging.
Eilik mengingatkan bahwa sebelum kamu buru-buru pasang model AI ke produkmu, ada pertanyaan yang lebih fundamental yang perlu dijawab dulu: bagaimana pengguna seharusnya merasakan sistem ini? Kalau itu belum dijawab dengan serius, AI hanya akan jadi lapisan mahal di atas fondasi yang tidak punya karakter.
Ada ironi kecil yang menarik: robot tanpa AI ini terasa lebih "manusiawi" dari banyak chatbot yang pakai LLM. Mungkin karena yang satu dirancang dengan fokus pada pengalaman, sementara yang lain dirancang dengan fokus pada kemampuan. Keduanya penting, tapi hanya satu yang pembaca rasakan.