הפרדוקס הבא מצריך קצת ידע מתמטי בסיסי:
נהג משאית נוסע כל יום נסיעה של 100 ק"מ. את ששת ימי העבודה שלו הוא מעביר כך ש:
*בימים א' ג' ה', הוא נוסע במהירות 50 קמ"ש (מה שאומר שהנסיעה תימשך שעתיים)
*בימים ב' ד' ו', הוא נוסע במהירות 100 קמ"ש (מה שאומר שהנסיעה תימשך שעה)
אם נעשה ממוצעים, נראה שהמהירות הממוצעת של הנהג היא 75 קמ"ש והזמן הממוצע שהוא
מבלה על הכביש הוא שעה וחצי ביום.
אבל אם הוא נוסע במיהרות ממוצעת של 75 קמ"ש הזמן שבו הוא יעבור 100 ק"מ צריך להיות
1:20 ולא שעה וחצי!!!
מה קורה פה?
מוזמן