חדשנות

מדענים מפתחים כפפה המאפשרת לך להרגיש מה נמצא עמוק בתוך המים

מדענים מפתחים כפפה המאפשרת לך להרגיש מה נמצא עמוק בתוך המים


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

דוקטורט. המועמדות אייזן קרולינה צ'אצ'ין וטקשי אוזו מתוכנית האינפורמציה להעצמה באוניברסיטת צוקובה, יפן, פיתחו כפפה עם כמה מאפיינים מעניינים מאוד. כפפות אלה נועדו לגרום למשתמש להרגיש אובייקט עמוק במים מבלי לגעת בעצם באובייקט, או אפילו להתקרב אליו יותר מדי לצורך העניין.

[מקור תמונה: אייזנק]

"המטרה הכללית שלנו הייתה להרחיב את האפטיקה", לדברי צ'אסין. "איך אתה יכול להרגיש מרקמים שונים או לחוש עומק מבלי לגעת בעצם באובייקט? רטט לבדו לא חותך את זה בשבילי, או עבור רוב האנשים, לצורך העניין. "

רבים ישאלו כיצד בדיוק הטכנולוגיה הזו עשויה להועיל לנו. ובכן ניתן להשתמש בה בדרכים רבות. אחת הדרכים היא להשתמש בו כדי לחפש קורבנות במים או חפצים מספינה שאולי שקעו למשל. יישום נוסף וחשוב מאוד של הכפפה הזו עשוי להיות היתרונות הבטיחותיים. הראות במים לא כל כך טובה, ובמקרים מסוימים, צוללנים לא יוכלו לראות בכלל. במקרה כזה, כפפה זו עשויה להתברר כשימושית בכך שהיא מאפשרת לצוללים לחוש מה סביבם גם אם הם לא באמת יכולים לראות אותם.

[מקור תמונה: אייזנק]

ראה גם: כפפה רובוטית תעזור לעיוורים לזהות טוב יותר אובייקטים

הכפפה, נקראת IrukaTact, עובד באמצעות חיישן סונאר MaxBotix MB7066. זהו חיישן המספק זיהוי קצר או ארוך באמצעות אולטרסאונד. ואז ישנם שלושה מנועים קטנים המחוברים לאצבעות האינדקס, האמצע והטבעת. כל המעגל מנוהל על ידי Arduino Pro Mini. מה שקורה בעצם הוא שהמידע מהחיישנים האולטראסוניים מוזרם ל- Arduino Pro Mini. ה- Arduino Pro Mini משתמש במידע זה כדי להפעיל את שלושת המנועים בהתאם.

המנועים למעשה שואבים מים מהסביבה ומכוונים את המים לקצה האצבע המתאים של המשתמש. זה מייצר סוג של תחושת לחץ ביד המשתמש ובהתאם כמה קרוב או כמה רחוק האובייקט מידו של המשתמש, ניתן לארגן את כמות הלחץ שנוצר על ידי הארדואינו בהתאם למידע שמספקים החיישנים הקולי. . כפפות ה- IrukaTact יכולות לחוש אובייקט עד 2 מטר.


צפו בסרטון: מדעי הקוגניציה והמוח (פברואר 2023).