Новітній час

Зображення для статті Новітній час - Астронавт

 

ЗМІСТ

 

Сучасна історія

Період, який розпочався в 1918 році після закінчення Першої світової війни і триває до цього часу, прийнято називати новітнім часом (в англомовному середовищі більш поширений термін «сучасна історія»).

 

Переживши перший в історії глобальний військовий конфлікт, у якому брали участь одразу 38 країн, світ почав освоювати нові технології, що супроводжувалося стрімким економічним зростанням і значним підвищенням рівня добробуту людей. Проте вже у 1930-ті роки на зміну бурхливому зростанню економіки США прийшла криза — Велика депресія. Це спричинило зниження обсягів світової торгівлі та загальну фінансову кризу. Скорочення виробництва та зростання безробіття у США призвело до хвилювань у суспільстві, які поширилися і на країни Європи, викликаючи соціальну напруженість та заворушення. В умовах економічної кризи в деяких європейських країнах посилився націоналізм та пошук авторитарних рішень. У таких державах, як Німеччина та Італія, підтримка крайніх правих рухів зросла, що згодом спричинило встановлення фашистських режимів.

 

Економічна криза посилила конкуренцію за обмежені ресурси, що стало причиною загострення міжнародних відносин. Тарифні бар’єри, введені багатьма країнами у відповідь на економічний спад, ще дужче погіршили ситуацію. У результаті навіть Ліга Націй — організація, створена після Першої світової війни, яка мала би запобігти будь-яким майбутнім конфліктам між країнами, — виявилася безсилою перед новим протистоянням: Другою світовою війною.

 

Війна, яка забрала життя десятків мільйонів людей, водночас мала величезний вплив на розвиток нових методик, стимулювавши наукові й технічні інновації. Протягом конфлікту вперше було застосовано та розроблено чимало технологій, які згодом стали ключовими у різних галузях. Ядерна енергетика, ракетобудування та подальше освоєння космосу, створення комп’ютерів та нові розробки у сфері електроніки — усе це з’явилося внаслідок військових досліджень.

 

У повоєнний період країни світу стикалися із необхідністю відновлення зруйнованої інфраструктури, економіки та соціальних структур. Усе це супроводжувалося зростанням виробництва, підвищенням рівня життя та формуванням суспільства споживання. Ключовим фактором у прагненні до покращення умов життя та забезпечення безпеки став інтенсивний науково-технічний прогрес.

 

Запуск першого штучного супутника Землі в 1957 році започаткував космічну еру людства. Уже в 1960-ті відбулися перший політ людини у космос і навіть перша в історії висадка землян на поверхню іншого небесного тіла — Місяця. Космічні програми стимулювали розвиток нових технологій, які згодом знайшли застосування у повсякденному житті.

 

Цифрова революція, пов’язана з переходом від традиційної промисловості, яка виникла в результаті промислової революції та індустріалізації, до економіки, заснованої на обробці даних, започаткувала інформаційну еру. Люди отримали можливість вільно передавати інформацію та мати миттєвий доступ до знань, які раніше було б важко чи зовсім неможливо знайти.

 

Важливим фактором, що характеризує сучасну епоху, стало значне прискорення темпів наукових і технологічних досліджень, а також доступ до інформації, що постійно розширюється. Своєю чергою більш досконалі методи комунікації та обміну інформацією сприяли якнайшвидшому поширенню та засвоєнню нових ідей. Інакше кажучи, науково-технічний прогрес прискорився до небувалих темпів — можна зазначити, що за рік тепер відбувалося більше відкриттів, ніж у ранні періоди історії за цілі тисячоліття!

 

Сучасність перебуває на стику між минулим та майбутнім. Учені намагаються спрогнозувати подальший історичний розвиток, ґрунтуючись на накопиченому досвіді людства. Американський філософ іспанського походження Джордж Сантаяна якось сказав: «Хто не пам’ятає свого минулого, приречений пережити його знову». Необхідно враховувати уроки минулого, знаходити закономірності в циклах підйому та падіння цивілізацій у різні історичні періоди, щоб не допустити можливості втрати всіх наукових знань та технологій через будь-які катаклізми, які здатні відкинути людство у розвитку на тисячі років назад або навіть повністю знищити його.

Перший автоматичний тостер

Чому перші тостери підсмажували хліб тільки з одного боку

Ще в давнину було помічено, що підсмажування шматочків хліба робить його більш хрустким, ароматним і надає йому особливого смаку. До того ж на тверду поверхню легше намазувати начинку, а тепло допомагає маслу швидше розплавитися. Тости (так називали підсмажені шматочки хліба, від латинського tostus — жаровня, деко) стали популярними у різних культурах. Вони споживалися на сніданок або у вигляді перекусу.

 

Для приготування тостів спочатку використовували металеву решітку, покладену над вогнем, або спеціальну виделку з довгою ручкою. Починаючи з XVII століття у Європі й Америці для підсмажування тостів на вогні почали виготовляти спеціальні ковані грилі — тостери.

 

З появою наприкінці ХІХ століття електричних нагрівальних елементів виникла ідея створення електричного тостера. Однак досить довгий час технічно складним залишалося виробництво надійного елемента, який міг би витримувати багаторазове нагрівання до високих температур, при цьому не втрачаючи міцності і не стаючи занадто крихким. Цю проблему вдалося вирішити в 1905 році, коли інженер Альберт Марш отримав сплав нікелю та хрому, який назвав ніхромом. І одними з перших приладів, де застосували ніхромові нагрівальні елементи, стали саме електричні тостери. Утім, спочатку такі пристрої теж мали свої недоліки: вони підсмажували хліб тільки з одного боку, до того ж необхідно було постійно стежити за тим, щоб тост не пригорів.

 

Перший автоматичний електротостер із двостороннім нагріванням та вбудованим таймером для своєчасного відключення нагрівального елемента був створений 1919 року Чарльзом Страйтом, який працював звичайним механіком на заводі. А 1925 року компанія Waters Genter внесла ще одне вдосконалення — «вистрибування» тостів із пристрою після їхньої готовності.

 

Відтоді в конструкції тостерів мало що змінилося, крім хіба що їхнього зовнішнього вигляду, що змінювався, враховуючи модні тенденції. У 1980-х роках деякі висококласні тостери мали функцію автоматичного опускання та підйому тостів без необхідності використовувати важелі — хліб просто закладали в такий «тостер-ліфт». У сучасних тостерах часто застосовуються біметалічні датчики, які відключають нагрівальний елемент, спрацьовуючи від тепла, що йде від тоста, і незалежно від типу хліба або його початкової температури (навіть замороженого шматочка), хліб завжди підсмажується до певної температури.

 

У рамках концепції Інтернету речей у майбутньому тостери, як і інші побутові прилади, підключатимуться до мережі Інтернет, завдяки чому керувати приготуванням тостів та отримувати повідомлення про стан їхньої готовності можна буде за допомогою смартфона.

Механічний міксер

Один із перших побутових електроміксерів

«Кухонний помічник» за ціною автомобіля

У всі часи кухарям доводилося перемішувати та збивати різні інгредієнти для приготування страв. Коли ж страв готували чималенько, ручне перемішування та збивання потребувало неабияких зусиль і забирало багато часу.

 

У XIX столітті через зростання міського населення та зміну способу життя людей виникла потреба у швидших та зручніших способах приготування їжі. Цьому сприяла промислова революція, яка зробила доступними більшу кількість металевих матеріалів та інженерних рішень. Усе частіше ручну працю замінювала більш ефективна машинна з використанням механічних пристроїв, зокрема кухонних приладів нового типу.

 

У 1856 році бляхар Ральф Кольєр із американського Балтімору запатентував перший механічний пристрій для перемішування — міксер з обертовими частинами. Варто зауважити, що міксери з ручним приводом завдяки своїй простоті та зручності досі є у продажу. Поява цього кухонного аксесуара свого часу значно полегшила життя домогосподарок.

 

Однак для професійних кухарів, яким доводилося готувати страви у великих кількостях, міксери з ручним приводом хоч і допомогли прискорити роботу, але, як і раніше, забирали чимало сил. Поява електричних двигунів та джерел живлення наприкінці XIX — на початку XX століття дала змогу розробити електричні кухонні пристрої, завдяки яким процес приготування страв перестав бути схожим на відвідування тренажерного залу.

 

У 1908 році інженер Герберт Джонстон, спостерігаючи за тим, як пекар замішував тісто металевою ложкою, задумався над тим, що з подібним завданням міг би чудово впоратися механічний пристрій з електричним приводом. Уже до 1915-го його міксер із 80-літровою чашею був стандартним обладнанням для більшості великих пекарень. А 1919 року в продажу з’явився перший електричний міксер для домашнього використання Kitchen Aid. І хоча цей апарат вагою понад 30 кг займав майже половину кухні, неабияк гримів під час роботи і коштував як новенький автомобіль «Форд», охочі придбати його, щоб перекласти частину домашніх обов’язків на побутову техніку, все одно були.

 

У 1930-х дизайнер Еґмонт Аренс створив революційну модель міксера, елегантний дизайн якої визначив зовнішній вигляд і функціонал цієї кухонної техніки на багато десятиліть уперед. Одним зі знакових досягнень були знімні вінчики для збивання (раніше вони були намертво з’єднані з корпусом). Завдяки такій особливості міксер займав менше місця, а також спрощувалась процедура його очищення.

 

Продажі міксерів щодень набирали обертів, але тут настала Велика американська депресія, і всім стало не до міксерів... На довгі роки про будь-які технічні нововведення на кухні довелося забути. Тріумфальне повернення міксерів до домогосподарок відбулося лише в 1950-ті роки, коли післявоєнна промисловість остаточно перейшла на випуск продукції мирного призначення. Нові міксери стали компактнішими, легшими у використанні й часто мали кілька насадок для різних завдань. Тепер цей прилад можна було тримати однією рукою, а довгий шнур давав змогу вільно пересуватися кухнею.

 

У другій половині XX століття в міксерах почали з’являтися нові функції, такі як плавний пуск та різні режими швидкості. А завдяки розвитку цифрових технологій та електроніки на початку XXI століття міксери отримали більш точний контроль швидкості, програми та різні функціональні можливості. Наприклад, деякі моделі мають вбудовані ваги чи програми для різних рецептів.

 

Еволюція кухонних міксерів триває, завдяки цьому з’являються нові технології, матеріали й функції, щоб відповідати потребам сучасних користувачів та кулінарних трендів.

Джон Берд демонструє перший телевізор

Один із перших телевізорів

Еволюція телевізорів

Сучасний телевізор

Перші телевізори з діагоналлю екрану 5 дюймів

У 1884 році німецький інженер Пауль Ніпков винайшов пристрій, що став відомим як диск Ніпкова. Це була кругла пластина з отворами, розташованими в певному порядку. Світло проходило крізь ці отвори і фіксувало зображення, немов у фотоапараті, на приймачі, який своєю чергою передавав його на екран. Така механічна обробка рухомого зображення потребувала значного часу і ресурсів, тому була далекою від досконалості.

 

Шотландський підприємець Джон Лоуґі Берд придумав, як оптимізувати систему передачі зображень на екран так, щоб деталі стали більш чіткими, а рухи — плавними. У січні 1926 року він уперше представив свою систему передачі зображень членам Королівської асоціації та репортерам газети The Times. Це був перший у світі показ справжньої телевізійної (від грецького «теле» — далеко і латинського visio — бачу) системи, що демонструє рухомі зображення в чорно-білому кольорі.

 

У 1927 році Берд передав телевізійний сигнал по телефонній лінії завдовжки 705 км між Лондоном та Глазго, а ще через рік компанія Берда Baird Television Development Company / Cinema Television здійснила першу передачу трансатлантичного телевізійного сигналу між Лондоном та Нью-Йорком, а також першу передачу з берега на корабель.

 

До середини 1930-х років компанія Берда практично монополізувала телевізійний ринок. Виготовлені нею пристрої мали форму шафи або трюмо, усередині яких містилися диски Ніпкова та світловий проєктор, а на передній частині було встановлено екран завбільшки з блюдце.

 

Проте водночас із механічним телебаченням Берда йшла робота над розробкою електронного телевізора. Винахідники прагнули підвищити швидкість обробки сигналу і поліпшити якість зображення, використовуючи електрику і люмінофори, що з’явилися наприкінці XIX століття, — особливі речовини, які випромінюють світло при впливі на них електричного струму. Ще 1897 року німецький фізик Карл Браун створив першу електронно-променеву трубку — кінескоп.

 

У 1907 році вчений Борис Розінґ значно удосконалив цей винахід, помістивши трубку Брауна в закритий корпус і досягши зображення найпростіших фігур. А в 1908 році англієць Алан Арчібальд Кемпбелл-Свінтон запропонував розгортати зображення в кінескопі за допомогою електронного променя, який буквально малює зображення на люмінофорній поверхні екрана, рухаючись набагато швидше, ніж це може сприймати людське око. У 1911 році винахідник опублікував докладну статтю з описом принципу електронного телебачення, проте до практичної реалізації подібної системи було ще далеко.

 

Лише 1936 року учень Розінґа Володимир Зворикін, емігрувавши до США, представив перший експериментальний екземпляр електронного телевізора. Масове виробництво таких пристроїв почалося 1939 року. Чорно-білі телевізори Зворикіна були громіздкими, при цьому діагональ екрана ледь сягала 5 дюймів — менше, ніж у багатьох сучасних смартфонах!

 

Розвитку телебачення у 1940-ті роки завадила Друга світова війна. До речі, інший винахід Зворикіна — електронна трубка, чутлива до інфрачервоного світла — згодом ліг в основу перших пристроїв нічного бачення, які використовувалися під час Другої світової війни для спостережень у темряві.

 

Епоха механічних телевізорів підійшла до свого природного завершення лише в 1950-ті, остаточно поступившись місцем більш перспективним електронним пристроям. Інженери безперервно працювали над підвищенням якості зображення та зменшенням ваги телевізорів. А в 1954 році компанія RCA представила перший повноцінний телевізор із кольоровим зображенням. Утім, ці пристрої були занадто дорогими, дозволити собі таку покупку міг далеко не кожен.

 

Поступово з покращенням технологій виробництва та зниженням вартості кольорові телевізори стали доступнішими для широкого загалу. Варто зазначити, що остаточний перехід телестанцій на кольоровий формат мовлення відбувся лише до початку 1980-х років, а для багатьох людей кольоровий телевізор залишався технічною дивиною аж до початку 1990-х.

 

Наступним кроком у вдосконаленні телевізійних приймачів стало зменшення розмірів кінескопа та, відповідно, габаритів самого виробу. Ще 1964 року американці Дональд Бітцер, Джин Слоттоу та Роберт Вілсон розробили перші телевізори з плазмовими панелями (PDP). Однак втілити таку технологію в життя вдалося лише у 1980-х. Плаский екран із величезною діагоналлю, приголомшлива якість зображення, що досягається за допомогою іонізованого газу (плазми), широкі кути огляду та висока частота оновлення кадрів — усі ці переваги принесли плазмовим телевізорам шалену популярність серед покупців. Але були і свої недоліки: вищий рівень енергоспоживання, велика вага та обмежений термін служби. Тому вже до 2014 року виробництво таких панелей у всьому світі було припинено.

 

Наразі основними технологіями для телевізорів є рідкокристалічні дисплеї (LCD) та органічні світлодіодні дисплеї (OLED). Варто зазначити, що першопрохідником серед творців рідкокристалічних телевізорів стала японська фірма Casio, яка випустила подібні вироби на ринок ще 1983 року. А ось перші світлодіодні екрани з’явилися лише на початку 2000-х.

 

Попри те, що після появи OLED-технологія стикалася з певними обмеженнями, такими як короткостроковий термін служби світлових матеріалів і проблеми з рівномірністю світіння на великих площах, з часом і з покращенням технологій OLED-дисплеї стали все більш популярними і широко використовуються у сучасних пристроях, причому не тільки в телевізорах, а й у моніторах, смартфонах та інших гаджетах. Поліпшення у виробничих процесах та матеріалах дали змогу усунути багато початкових обмежень, і тепер OLED-дисплеї дають яскраві, контрастні зображення з відмінною кольоропередачею та швидким часом відгуку.

 

 

У 2015 році з’явилися перші смарт-телевізори, чи Smart-TV. Вони мають вбудований міні-комп’ютер, який дає змогу підключатися до Інтернету. Завдяки цьому смарт-телевізор можна використовувати для перегляду сайтів, запуску програм та ігор. Застосування великого екрану телевізора, по суті, як смартфона стало зручним і привабливим, тому на сьогодні смарт-телевізори переважають на ринку.

 

Наразі продовжується безперервне вдосконалення телевізійних технологій. Серед найперспективніших напрямків можна назвати такі:

  • MicroLED-технологія — мікроскопічні світлодіоди забезпечують відмінну якість зображення, високу контрастність та тривалий термін служби;
  • QLED (Quantum Dot LED) — для покращення кольоропередачі та яскравості зображення використовуються квантові точки;
  • 8K-розділення — найвища якість зображення на сьогоднішній день серед усіх відомих форматів завдяки максимальній кількості пікселів (точок, які формують зображення на екрані);
  • Гнучкі дисплеї, завдяки яким телевізор можна буквально згорнути в трубочку.

Ймовірно, у майбутньому телебачення еволюціонує в об’ємні голографічні зображення, які будуть більш реалістичними та привабливими для глядачів. При цьому такі зображення можна буде розглядати з різних боків і під різними кутами, одержуючи детальніше уявлення про предмет.

Прообраз ланцюгової пили — остеотом Бернарда Гайна

Перша бензопила Dolmar model A

Як зробити бензопилу легшою

1830 року німецький дантист-протезист Бернард Гайн придумав остеотом — хірургічний інструмент, який використовувався для розрізання кістки. Цей інструмент мав різальні зубці-ланки, скріплені між собою в ланцюг, який рухався за допомогою ручки-зірочки. Значного поширення інструмент не набув, оскільки одночасно обертати ручку та спрямовувати інструмент було вкрай незручно. Однак ідею запозичили власники тартаків. До початку XX століття були створені ланцюгові пилорами з ручним приводом. Такі махини були досить громіздкими і незграбними, а до роботи з ними залучали як мінімум двох осіб.

 

У 1926 році інженер-механік Андреас Штіль здогадався оснастити ланцюгову пилу електричним двигуном. Однак широкої популярності електропили на той момент не набули, оскільки досить легких та ефективних акумуляторів ще не існувало, а прив’язка до джерела електроживлення у багатьох випадках робила цей інструмент непрактичним.

 

1927 року німець Еміль Лерп використав замість електромотора компактний бензиновий двигун внутрішнього згоряння. Так було створено першу бензопилу. Двигун значно полегшував роботу лісозаготівельникам, проте розміри інструменту все одно були досить великими, а вага становила близько 60 кг. Лерп заснував компанію з випуску бензопил, які отримали назву Dolmar — на честь гори в Тюрінгії, де проходило перше випробування бензопили.

 

Компактна бензопила Dolmar CP, якою могла працювати одна людина, з’явилася в 1952 році. А в 1957 році ця ж пила отримала революційне технічне рішення, яке використовується в бензопилах досі. Це був мембранний карбюратор, який давав змогу експлуатувати пилу як у горизонтальному, так і у вертикальному положеннях.

 

У 1958 році брати Ганс і Гейнц Еммеріх установили на ланцюгову пилу двигун від мотообприскувача власного виробництва. Компанія Solo, заснована братами, була відома своїми розробками особливо компактних бензинових двигунів, тому нова ланцюгова пила вийшла дуже легкою, а отже дуже зручною.

 

1959 року компанія Андреаса Штіля розробила бензопилу без редуктора, що дало змогу ще дужче знизити масу інструменту. Того ж таки 1959 року на ринку бензопил з’явився новий сильний конкурент — шведська компанія Husqvarna — найстаріший європейський виробник. Уже в 1962 році Husqvarna розробила надлегку бензопилу Husqvarna 70, вага якої становила лише 5,5 кг. А в 1969 році була представлена ще одна інноваційна розробка — пила Husqvarna 180, створена за принципом двох мас і оснащена інтегрованою системою вібрації.

 

Конкурентна боротьба виробників бензопил сприяє активному розвитку технологій та розробці інноваційних рішень. Утім, сьогодні у пріоритеті екологічна ефективність, тому основні зусилля спрямовані на розробку екологічно чистих ручних інструментів зі зниженим рівнем шуму та кількістю шкідливих викидів.

 

У цьому аспекті перспективнішими є ланцюгові пили з електромоторами. Розвиток технологій акумуляторів та бездротового живлення лише сприяє цьому. Крім того, постійне вдосконалення конструкції, упровадження нових легких та міцних матеріалів, а також використання розумних технологій, таких як автоматичне регулювання обертів, датчики безпеки та системи запобігання нещасним випадкам, може зробити ланцюгові пили більш ергономічними, безпечними та зручними для користувачів.

Перший аерозольний балон

Сучасні аерозольні балони

Що могли назвати «аерозольною бомбою»

Ще у XVIII столітті, коли Джозеф Прістлі відкрив спосіб отримання газованої води, було помічено явище виштовхування газованого напою з пляшки, у яку його налито. Інакше кажучи, рідина виштовхувалася з ємності за рахунок надлишкового тиску, створюваного розчиненим у ній газом.

 

У 1862 році було реалізовано ідею використання стисненого газу для розбризкування рідини. Однак сталеві ємності, які використовувалися з цією метою, були занадто громіздкими та незручними, тому великого успіху винахід не мав.

 

1927 року норвезький інженер-хімік Ерік Ротхайм отримав патент на перший аерозольний балон — ємність із клапаном, при відкритті якого з невеликого отвору виходить туманоподібна суміш рідини з газом — аерозоль.

 

Довгий час винахід Ротхайма не мав практичного застосування, і лише 1943 року американці Лайл Гудхью та Вільям Салліван здогадалися використовувати балон для боротьби з комахами. Їхня «аерозольна бомба» була невеликою сталевою посудиною, за допомогою якої солдати могли захищатися від переносників малярії — комарів, розпирскуючи вміст балона всередині наметів і літаків. Для розпилення використовувався зріджений газ фторвуглець, який згодом став успішно застосовуватися в інших аерозольних балонах (наприклад, з лаком для волосся).

 

У 1949 році власник механічного цеху в Бронксі Роберт Абпланальп розробив так званий обтискний клапан, який досі використовується для управління розпиленням в аерозольних балончиках. Винахід Абпланальпа з легкого алюмінію зробив банки дешевим і практичним способом дозування рідких пін, порошків і кремів. Заснована винахідником компанія незабаром заробила понад 100 мільйонів доларів, виробляючи понад мільярд аерозольних балонів на рік.

 

У 1974 році хіміки Френк Шервуд Роуленд і Маріо Моліна припустили, що хлорфторвуглеці (ХФВ), які використовуються як газове середовище в аерозольних розпилювачах, сприяють стоншенню озонового шару Землі. А наукове обґрунтування цього вдалося надати лише 1985 року. Тоді ж було прийнято Віденську конвенцію про охорону озонового шару Землі, а через два роки було офіційно підписано Монреальський протокол, який регулює виробництво ХФВ. У відповідь на це виробники аерозольних балонів почали використовувати водорозчинні вуглеводні, безпечні для довкілля, і продукція продовжила своє тріумфальне поширення світом.

 

Сьогодні аерозольні балони мають найрізноманітніше застосування. Вони широко використовуються в косметичній індустрії та медицині. З їх допомогою розпорошуються засоби побутової хімії: препарати для чищення, ароматизатори повітря, знежирювачі. Аерозолі є чудовим способом нанесення будівельних та промислових матеріалів, наприклад, фарб, клею, мастил. У майбутньому затребуваність аерозольної упаковки буде тільки зростати, при цьому значна увага приділятиметься екологічності та безпеці балонів.

Антибіотики

«Проти життя»

Відомо, що ще жителі Стародавнього Єгипту, Китаю та Індії використовували запліснявілий хліб для лікування ран і гнійників. Відповідні згадки про застосування плісняви з лікувальною метою часто зустрічаються в працях давніх учених і філософів, написаних понад дві тисячі років тому. Нубійські мумії, виявлені на території Південного Єгипту та досліджені в 1990-х роках, добре збереглися завдяки значному вмісту тетрацикліну, джерелом якого в давнину могло бути пиво.

 

Докладно вивчати лікувальні властивості плісняви стали лише на початку 1870-х років. У 1877 році мікробіологи Луї Пастер і Роберт Кох помітили, що одна з бактерій здатна пригнічувати зростання іншої. Це явище отримало назву «антибіоз» — у перекладі з грецької «проти життя». Приблизно в той самий час німецький лікар Пауль Ерліх висунув ідею про створення хімічних речовин, які діятимуть як вибіркові ліки, вбиваючи шкідливі бактерії та не завдаючи при цьому шкоди людському організму. Згодом такі речовини одержали назву «антибіотики». Утім, перш ніж це сталося, сплило ще чимало часу.

 

Дослідження тривали протягом десятиліть. Різним ученим удалося довести ефективність пліснявих грибів проти збудників таких страшних захворювань, як сибірка або черевний тиф. Але виділити стабільний препарат на основі плісняви тривалий час не виходило.

 

Британський мікробіолог Александр Флемінґ ще під час Першої світової війни зіткнувся з проблемою інфікування ран і зрозумів, що терміново потрібні ефективніші антибактеріальні засоби, ніж ті, що використовувалися для лікування на той час. Взявши за основу роботи Луї Пастера, Флемінґ розпочав дослідження.

 

У 1928 році, проводячи нічим не примітний експеримент із хвороботворними бактеріями, учений несподівано відкрив спосіб виділення із пліснявого гриба Penicillium notatum речовини, що вбиває бактерії. Мабуть, пеніциліум знайомий кожному — саме цей грибок покриває зачерствілий хліб зелено-білими плямами. Випадково потрапивши на колонію хвороботворних бактерій-стафілококів, пліснявий грибок виділив речовину, яка їх знищила. Флемінґу вдалося зібрати цю речовину, яку він назвав пеніциліном на честь того самого грибка.

 

Цікаво, що відкриття Флемінґа не викликало серед медиків великого ентузіазму. Річ у тім, що виявлена речовина виявилася дуже нестійкою і руйнувалася навіть протягом короткочасного зберігання. Тільки в 1938 році двом ученим з Оксфордського університету, Говарду Флорі та Ернсту Чейну, удалося вирішити проблему стійкості, отримавши сіль пеніцилінової кислоти. Почалося масове виробництво пеніциліну, завдяки якому під час Другої світової війни було врятовано сотні тисяч людських життів у всьому світі. У 1945 році Говард Флорі, Александр Флемінґ та Ернст Борис Чейн отримали Нобелівську премію з медицини «За відкриття пеніциліну та його цілющого впливу при різних інфекційних хворобах».

 

Слідом за пеніциліном були відкриті й інші антибактеріальні засоби. Саме в цей період американський біохімік українського походження Зельман Ваксман запропонував називати антибіотиками будь-які речовини, вироблені живими мікроорганізми, які перешкоджають зростанню інших мікроорганізмів. До речі, 1952 року Ваксман отримав Нобелівську премію з медицини за відкриття стрептоміцину — першого препарату, ефективного при лікуванні туберкульозу.

 

Наразі термін «антибіотик» застосовується до будь-яких ліків, які вбивають бактерії або пригнічують їх зростання, незалежно від того, чи виробляються ці ліки мікроорганізмом, чи ні. Це пов’язано з тим, що з часом подібні препарати навчилися отримувати штучно. Синтетичні антибіотики мають підвищену ефективність завдяки подоланню опору бактерій природним антибіотикам.

 

У середині XX століття кількість нових антибіотиків, запроваджених для медичного застосування, значно зросла. З 1940 до 1968 року було відкрито понад 20 класів цих препаратів, після чого темпи помітно знизилися. Пов’язано це з тим, що, попри важливість у лікуванні інфекцій, застосування антибіотиків має і негативний аспект: шкідливі мікроорганізми мутують і стають несприйнятливими до впливу таких речовин.

 

Тому нині зусилля вчених спрямовані на розробку інноваційних підходів до лікування інфекцій. Перспективними є дослідження у сфері генетичної інженерії, що дає змогу створювати модифіковані антибіотики або вдосконалені версії вже наявних для підвищення їх ефективності. Крім того, розробляються методи використання бактеріофагів — вірусів, які знищують бактерії. Застосування нанотехнологій для створення наночастинок, що мають антибактеріальні властивості, також є перспективним напрямом.

Перша електрична бритва Джейкоба Шика

Роторна електробритва типу Philishave

Сіткова електробритва

Як Шик придумав навести шик

Уперше ідея голитися за допомогою електричного пристрою спала на думку інженеру-будівельнику з Нью-Йорка Джону Френсісу О’Рурку. Він навіть отримав відповідний патент у 1898 році, але діючої електробритви винахідник так і не створив.

 

Американський офіцер Джейкоб Шик ще 1910 року, коли шукав золото на Алясці, замислився над створенням бритви, яка була б ефективною навіть за відсутності гарячої води. Для сухого гоління він вирішив використати пристрій із електромоторчиком і навіть накидав його ескіз.

 

Після Першої світової війни Шик вирішив втілити свою ідею в життя. А щоб накопичити для цього достатньо коштів, почав удосконалювати звичайні безпечні бритви. Будучи військовим, Шик надихнувся гвинтівкою з магазином, тому його бритви відрізнялися від усіх інших тим, що змінні леза продавалися в затискачах, які можна було вставляти в бритву, не ризикуючи порізатися. Таке доопрацювання сподобалося багатьом покупцям, і Шику вдалося зібрати достатньо коштів, щоб реалізувати свій давній задум і створити електробритву — у листопаді 1928 він здобув патент на свій винахід, а ще через рік налагодив масовий випуск.

 

У 1937 році голландський інженер-механік Александр Горовіц із лабораторії Philips у Нідерландах винайшов конструкцію роторної електробритви. У обертового ножа в такій бритві було не одне, а три леза. Прорізів у голільній голівці стало значно більше — бритва перестала «видирати» волосся. Такий тип електробритв отримав назву Philishave і згодом став найпоширенішим завдяки своїй простоті, надійності та ефективності. Згодом з’явилися прилади з двома і трьома голільними голівками, а в деяких сучасних моделях їх цілих п’ять!

 

Наприкінці 1940-х років з’явилися перші бездротові електробритви. Автономна система була дуже зручною, наприклад, для подорожей. Спочатку для живлення невеликого електродвигуна використовувалися батарейки, але вже в 1960 році компанія Remington випустила бритву, яка могла працювати як від акумуляторів, так і від мережі (при цьому акумулятори заряджалися).

 

У 1950 році Макс Браун представив громадськості свій винахід — електробритву сіткового типу. Особливість цього пристрою полягала в тому, що його нерухомий ніж був виконаний у формі сітки, вигнутої дугою. При цьому така металева сітка покривала всю площу голільної голівки бритви, а всередині до неї прилягав рухомий ніж. У процесі роботи він переміщався від одного краю до іншого і таким чином обрізав волосинки. Бритва непогано голила і, що важливо, на відміну від роторних бритв тих часів, не викликала подразнення шкіри.

 

У другій половині XX століття широке застосування пластмас дало змогу виробляти стильні дизайнерські форми бритв яскравих кольорів. Потужні електродвигуни дозволили використовувати більше різальних лез. Якоїсь миті навіть з’явився розподіл електробритв на чоловічі та жіночі.

 

Значний внесок у розробку електробритв зробив Роланд Ульманн. Він першим поєднав гумові та металеві елементи в бритвах, а загалом за свою кар’єру подав понад 100 патентів на різні інновації у бритвах сухого типу.

До речі, ранні версії електробритв призначалися виключно для гоління сухої шкіри. Але сучасні електробритви підходять і для «вологого» використання, що дозволяє чистити їх проточною водою, а також поєднувати з різними засобами для гоління, що зволожують шкіру та запобігають її травмуванню.

 

Наразі великі виробники безперервно удосконалюють конструкцію своїх електробритв, реалізуючи інновації в нових моделях кожні кілька років. Поліпшуються системи лез, вбудовуються інтелектуальні сенсори, які допомагають інтегрованому штучному інтелекту адаптувати гоління до особливостей шкіри користувача, впроваджуються більш енергоефективні системи живлення. Крім того, електробритви можна буде інтегрувати з іншими пристроями та технологіями, наприклад зі смартфонами, для надання розширених функцій та можливостей управління.

Овочечистка L’Économeр

Овочечистка Sparschäler Rex

Овочечистка Jonas

Покращений кухонний ніж, що став символом Швейцарії

Якщо ви думаєте, що у XX столітті винаходили тільки якісь високотехнологічні пристрої, які стали можливими лише з останніми досягненнями тогочасної науки, ви помиляєтеся. 1929 року у Франції була вигадана овочечистка (ніж для очищення картоплі, або пілер, як ще називають цей нехитрий, але, безперечно, корисний девайс). Створив цей інструмент майстер ножів Віктор Пузе. Новинка продавалася під товарною назвою L’Économee (у перекладі з французької — ощадливий) і рекламувалася як «покращений кухонний ніж», який дасть змогу заощадити 30% як часу, так і картоплі.

 

А 1947 року Альфред Невечерзаль створив знамениту швейцарську овочечистку Sparschäler Rex із поворотним ножем, завдяки якому кут леза автоматично регулюється під натиском. Конструкцію саме цієї овочечистки покладено в основу найпопулярніших на сьогоднішній день пілерів з Y-подібною ручкою.

 

До речі, Sparschäler Rex стала одним із символів Швейцарії разом із годинником та армійським ножем, тому 2004 року її навіть зобразили на швейцарській поштовій марці.

 

У 1953 році у Швеції дизайнер Джонас розташував поворотний ніж не поперечно, як у швейцарській овочечистці, а поздовжньо, як у звичайному ножі. Таким чином інструмент поєднав у собі найкращі якості всіх попередніх овочечисток.

 

Примітно, що на підприємствах громадського харчування та невеликих овочепереробних виробництвах картоплю та інші овочі давно не чистять вручну ні звичайними ножами, ні пілерами. Для цього використовуються спеціальні машини, що складаються з резервуару зі стінками, покритими крупнозернистим шліфувальним каменем. У резервуар засипається нечищена картопля і додається певна кількість води, після чого електродвигун починає обертати резервуар разом із його вмістом, і шкірка в процесі тертя картоплин об камінь зчищається у вигляді пасти. Очищена картопля висипається з пристрою крізь спеціальну заслінку.

 

Крім того, для очищення овочів у промислових умовах їх можуть попередньо обробляти струменями пари або лугом, щоб пом’якшити зовнішню оболонку, після чого механічно видаляють шкірку за допомогою барабанних агрегатів із дископодібними шипами різного розміру.

 

Цілком можливо, що в майбутньому для процесу очищення овочів будуть застосовуватися механічні пристрої нового типу, керовані штучним інтелектом, завдяки чому процес видалення шкірки стане ще швидшим та ефективнішим.

Найбільший радіотелескоп

Сонце випромінює радіоперешкоди?

Наприкінці ХІХ століття вчені висловили припущення, що небесні тіла — зірки та планети — можуть випускати не лише видимі людським оком світлові хвилі, але й інші види випромінювань, зокрема радіохвилі. У 1890-ті роки Едісон у США та Лодж у Великій Британії незалежно один від одного намагалися провести досліди щодо виявлення радіовипромінювання Сонця. Але на той момент досить чутливих приймачів ще не існувало, тому жодних результатів досягти не вдалося.

 

Коли ж у 1902 році було відкрито іоносферу — верхню частину шарів атмосфери, яка відбиває радіовипромінювання, — фізики дійшли висновку, що вона відбиватиме будь-які астрономічні радіохвилі назад у космос, тому виявити їх неможливо.

 

1931 року американський радіоінженер Карл Янський вирішував цілком практичне завдання — як позбутися перешкод у радіоефірі під час грози. Він досліджував напрямки приходу грозових перешкод і побудував з цією метою вертикально поляризовану односпрямовану антену 30,5 метра завдовжки та 3,7 метра заввишки. До основи антени кріпилися чотири колеса, завдяки чому її можна було повертати врізнобіч. Антена була з’єднана з чутливим приймачем, на виході якого стояв реєструвальний пристрій — самописець.

 

Провівши перші досліди зі своєю установкою, Янський виявив «постійне шипіння невідомого походження». Спочатку дослідник вирішив, що ці шуми пов’язані з апаратурою — навушниками або іншими компонентами обробки вхідних сигналів. Однак потім він переконався, що напрям, з якого приходять перешкоди у вигляді шипіння, поступово змінюється протягом дня, роблячи повний оберт за 24 години. Таким чином Янський зробив висновок, що причиною перешкод є Сонце.

 

Продовжуючи дослідження, учений поступово дійшов висновку, що джерелом його нових перешкод є центральна область нашої галактики, причому найбільший відгук виходить, коли антена спрямована до центру Чумацького Шляху.

Янський розумів, що для точніших і достовірніших вимірювань знадобляться антени більших розмірів та з чутливішими датчиками. Причому ці антени мають бути легко орієнтовані в різних напрямках.

 

Він навіть розробив конструкцію параболічної антени діаметром 30,5 метра, проте його ідея не знайшла підтримки у науковому світі, і радіоастрономія на цьому етапі не почала розвиватися. Сам Янський був призначений на інший проєкт, тому продовжувати дослідження в галузі астрономії він більше не міг.

 

У 1937 році радіоінженер та астроном-аматор Ґроут Ребер, натхненний роботою Янського, побудував у себе на задньому дворі параболічний радіотелескоп діаметром 9 метрів. Розпочавши з повторення спостережень свого попередника, він провів перший огляд неба в радіочастотах. Йому вдалося створити карту неба в радіодіапазоні, на якій чітко видно центральні ділянки Чумацького Шляху та вперше виявлені яскраві радіоджерела — галактики Лебідь А та Кассіопея А. Літера А у назві цих астрономічних об’єктів указує на те, що вони є так званими радіогалактиками — потужними джерелами радіовипромінювання у своїх сузір’ях. До речі, Ребер відкрив ці радіогалактики задовго до того, як їх вдалося виявити візуально за допомогою оптичних телескопів. Крім того, карти Ребера досить хороші навіть у порівнянні з сучасними, складеними за допомогою значно досконалішого обладнання.

 

У 1940-ві роки різним радіоінженерам вдалося виявити і точно ідентифікувати радіохвилі, випромінювані Сонцем. Однак через заходи секретності, пов’язані з використанням радарів під час війни, про це відкриття деякий час не оголошувалося широкому загалу. Одначе, швидкий розвиток радіолокації привів до створення технологій, які після війни були з успіхом застосовані в радіоастрономії, давши потужний поштовх цьому напрямку космічних досліджень.

 

У 1950-ті роки різні університети й дослідницькі інститути почали створювати великі радіотелескопи, і незабаром величезні тарілки антен з’явилися в різних куточках нашої планети. Широкий діапазон довжин радіохвиль, велика кількість об’єктів досліджень, швидкі темпи розвитку радіофізики та велика кількість незалежних колективів радіоастрономів дали поштовх до появи значного розмаїття типів радіотелескопів. Найбільш дивовижними були конструкції, які використовували природний рельєф як дзеркало антени.

 

Так, 2016 року в Китаї було здано в експлуатацію радіотелескоп FAST «Небесне око» з гігантською тарілкою діаметром аж 500 метрів!

 

У сучасному світі радіотелескопи відіграють ключову роль у наукових дослідженнях, астрономії та космології. З їх допомогою вчені отримують інформацію про склад, структуру та динаміку зірок, галактик, квазарів, пульсарів та інших космічних об’єктів. Радіотелескопи використовуються для визначення координат та руху небесних тіл, для вивчення вибухів наднових, визначення магнітних бур на Сонці, сплесків гамма-променів та збору даних про міжзоряний простір.

 

Крім того, саме радіотелескопи відіграють ключову роль у проєктах із виявлення позаземних цивілізацій — з їхньою допомогою відбувається пошук радіосигналів від можливих інопланетних рас, а також передаються закодовані повідомлення про нашу цивілізацію.

 

Крім того, технології, розроблені для радіотелескопів, також знаходять застосування в галузі комунікацій та передачі даних, зокрема в бездротових технологіях, супутниковому зв’язку тощо. Радіотелескопи надихають нове покоління вчених та інженерів, будучи частиною освітніх програм та наукових заходів.

Електронний мікроскоп

Як побачити предмети, розміри яких менші за довжину хвилі світла

Відтоді як наприкінці XVI століття було винайдено мікроскоп, цей пристрій постійно вдосконалювався, даючи вченим змогу здійснювати все нові і нові відкриття в мікросвіті. На середину ХІХ століття розвиток оптики давав змогу робити мікроскопи з досить значним збільшенням. Однак у 1873 році німецький фізик Ернст Аббе висловив припущення, що для оптичних мікроскопів існують певні межі їхніх можливостей, а саме — об’єкти, розміри яких менші за довжину хвилі світла (а це приблизно кілька сотень нанометрів) буде просто неможливо розрізнити за допомогою мікроскопів видимого світла.

 

Намагаючись вирішити цю проблему, інші німецькі вчені-оптики Келер і Рор розробили ультрафіолетовий мікроскоп, що дало змогу збільшити роздільну здатність удвічі. Однак навіть їхній пристрій, який використовував дорогу кварцову оптику, був обмежений довжиною хвилі ультрафіолету.

 

Водночас у 1858 році фізик Юліус Плюккер відкрив відхилення електродів (катодних променів, як він їх називав) магнітними полями. Цей ефект у 1897 році використав Фердинанд Браун для створення вимірювального пристрою — електронно-променевого осцилографа (CRO).

 

Інший фізик-експериментатор, Едуард Рікке, виявив, що електрони можна фокусувати за допомогою магнітних полів, що дало змогу створити просту конструкцію електромагнітної лінзи. Розвиваючи цю ідею, послідовник Рікке фізик Ганс Буш у 1926 році довів, що рівняння оптичних лінз за певних припущень можна застосувати до електронів.

 

Дослідницька група Берлінського технічного університету під керівництвом Макса Кнолля, працюючи над удосконаленням електромагнітних лінз із метою створення більш якісного електронно-променевого осцилографа, 1931 року створила перший електронний мікроскоп — пристрій з електростатичними лінзами, де як джерело освітлення використовується не світловий промінь, а пучок електронів. Оскільки довжина хвилі електрона може бути у 100 000 разів менша, ніж у видимого світла, електронні мікроскопи здатні розрізняти об’єкти, розміри яких становлять близько 0,1 нм.

 

Згодом конструкція електронних мікроскопів безперервно оптимізувалася, а електронна мікроскопія знаходила своє застосування у нових сферах людської діяльності. Особливо інтенсивно електронні мікроскопи поширювалися після Другої світової війни. Створені тоді розробки із багатоступінчастою оптикою досі використовуються в сучасних мікроскопах. Перша міжнародна конференція з електронної мікроскопії відбулася 1949 року в нідерландському Делфті. На ній були присутні більше ста людей з різних країн.

 

З розвитком просвічувальних електронних мікроскопів у 1970-ті роки була досліджена та доопрацьована методика сканувальної просвічувальної електронної мікроскопії. Альберт Крю з університету Чикаго створив автоемісійну гармату, за допомогою якої йому вдалося отримати зображення атомів.

 

Поява електронних мікроскопів відіграла важливу роль у розвитку таких наук, як мікробіологія, матеріалознавство та нанотехнології. За допомогою цих пристроїв вчені змогли розглянути найменші деталі структури клітин, бактерій, вірусів, молекул і навіть атомів. Наразі електронні мікроскопи широко використовуються в наукових цілях, допомагаючи краще розуміти світ на мікро— та нанорівнях. Вони можуть ставати частиною ширших технологічних комплексів, зокрема системи наноаналізу, спектроскопії та навіть штучного інтелекту для автоматичного дослідження даних.

 

Водночас електронні мікроскопи продовжують удосконалюватися. Розвиток технологій та методів обробки зображень, таких як абераційна корекція та комп’ютерна томографія, може привести до додаткового підвищення роздільної здатності електронних мікроскопів. Це дасть змогу дослідити об’єкти на ще меншому масштабі та розширить можливості в нанотехнологіях, біології й матеріалознавстві.

 

Удосконалення програмного забезпечення та методів візуалізації дозволяє більш ефективно обробляти та інтерпретувати дані, отримані з електронних мікроскопів, що своєю чергою полегшить дослідження та освітні процеси. При цьому вартість таких пристроїв стає дедалі доступнішою для широкого кола дослідників, зокрема малих лабораторій та освітніх установ.

 

Електронні мікроскопи можуть стати частиною інтегрованих систем сканування та 3D-моделювання об’єктів, що дасть змогу більш повно й точно вивчати їх структуру та форму. Також на електронні мікроскопи можуть вплинути квантові технології, відкриваючи нові можливості для дослідження й візуалізації об’єктів на рівні окремих квантів.

 

Надалі електронні мікроскопи будуть усе більш ефективними й функціональними інструментами для наукових досліджень у різних галузях.

Найлегший із твердих матеріалів — аерогель

З чого можна зробити тканину, ковдру та… вибухівку?

У 1931 році хімік Стівен Кістлер з Тихоокеанського коледжу в Каліфорнії відкрив новий матеріал, який отримав назву «аерогель».

 

Слід зазначити, що звичайний гель (від латинського gelo — застигаю) — це така змішана структура, у якій одна тверда речовина поєднується з іншою рідкою речовиною. При цьому тверда речовина утворює так звану матрицю, а рідка цю матрицю заповнює. У результаті гелі, не будучи твердими тілами, мають їх властивості: не течуть, можуть зберігати форму, здатні до деформації.

 

У своїх дослідах Кістлер замінив рідину в гелі на метиловий спирт, після чого нагрів гель під тиском до повного випаровування спирту. При цьому гель «висихав», майже не стискаючись, а його матриця заповнювалася повітрям (звідки й назва матеріалу: «аерос» у перекладі з грецької — повітря). Отриманий матеріал мав рекордно низьку щільність і демонстрував цілу низку унікальних властивостей: твердість, прозорість, жаростійкість, надзвичайно низьку теплопровідність.

 

Що важливо, аерогелі можна робити буквально з усього, що «лежать під ногами»: піску, глиноземів, оксидів металів. А на початку 1990-х було отримано перші зразки аерогелю на основі вуглецю.

 

На дотик аерогелі нагадують легку, але тверду піну. При сильному навантаженні аерогель може тріскатися, але в цілому це вкрай міцний матеріал, який витримує навантаження в тисячі разів більші за власну вагу. Завдяки високому вмісту повітря цей матеріал є дуже хорошим утеплювачем.

 

Як правило, аерогелі напівпрозорі та залежно від матеріалів, із яких вони складаються, можуть мати різні кольори. Однак є також зовсім непрозорі аерогелі. Наприклад, вуглецеві, які мають глибокий чорний колір і поглинають 99,7 % світла, що падає на них.

 

Наразі ця речовина використовується для різних цілей. Аерогель — це:

  • чудовий матеріал для тепло— та звукоізоляції у будівництві чи промисловості;
  • хімічний адсорбер, який використовується для очищення стічних вод;
  • носій хімічного каталізатора, наприклад, у вихлопних системах автомобілів;
  • основа для міцних тканин одягу й ковдр;
  • матеріал для фізичних досліджень і дослідів.

Із аерогелів на основі кремнезему виробляють оптоволокно. Окремі види аерогелів можуть бути вибухівкою.

 

А ще аерогель є ключовим матеріалом у космічному проєкті «Стардаст», де він використовується для збирання космічного пилу — найдрібніших частинок, які перебувають у космосі та складаються буквально з кількох молекул.

 

Унікальні властивості аерогелів підходять для виконання найширшого кола завдань, а з розвитком технологій сфери застосування подібних матеріалів будуть тільки примножуватися.

Як з’явилися трамполіни для тренування пілотів, штурманів і космонавтів

У північних народів існувала традиція — під час весняного свята вполювання китів танцюристів підкидали у повітря за допомогою натягнутої шкіри моржа. Існують свідчення, що схожі звичаї були в давнину і в європейців, тільки в них для цього кілька людей розтягували велику ковдру.

 

Наприкінці XIX століття, а саме в 1887 році, натягнуті ковдри здогадалися використовувати пожежники, щоб упіймати людей, які, рятуючись від вогню, вистрибують із вікон палаючих будівель. Звучить неймовірно, але коли в усьому світі вже плавали пароплави, ходили потяги, їздили перші автомобілі, а на фабриках і заводах працю людини успішно замінювали потужні парові машини, двигуни внутрішнього згоряння і навіть перші електромотори, люди все ще не придумали такої простої розваги, як стрибки на пружній поверхні, що підкидає в повітря!

 

Утім, за деякими відомостями, у XIX столітті так звані стрибучі ліжка використовували циркові акробати для безпеки і для того, щоб здивувати глядачів. Навіть існує легенда, що перший батут придумав ще в Середні віки цирковий акробат на ім’я Дю Трамполіне (англійська назва батута — Trampoline — нібито походить саме звідти), проте жодних достовірних підтверджень цього не існує.

 

Зате достеменно відомо, що перший сучасний батут був побудований 1935 року чемпіоном зі стрибків у воду та акробатичних стрибків Джорджем Ніссеном. З’єднавши за допомогою еластичних джгутів частину полотна із шарнірною металевою конструкцією, він отримав пристрій, який спочатку застосовувався для тренування акробатів, але незабаром завоював популярність і в інших сферах. Назву «трамполін» Ніссен взяв з іспанської мови, де це слово означає трамплін для стрибків у воду. А звичніше для нас слово «батут» походить від італійського battuta — удар.

 

У 1942 році Ніссен спільно з гімнастом Ларрі Ґрісволдом створили компанію «Ґрісволд-Ніссен Батут та Акробатика» (The Griswold-Nissen Trampoline & Tumbling Company) і почали комерційно виробляти батути.

 

Спочатку передбачалося, що батут використовуватиметься виключно для розваг та відпочинку. Ніссен навіть вигадав першу гру на батутах — Spaceball («Космічна куля»). Для цього ігровий майданчик був обладнаний кількома батутами та сіткою, з різних боків якої розташовувалися команди гравців. Завданням команд було перекинути м’яч через сітку на поле суперників — такий собі волейбол зі стрибунами.

 

Однак під час Другої світової війни льотна школа ВМС США почала використовувати батут для тренування пілотів і штурманів, розвиваючи в них здатність краще орієнтуватися у просторі. Через десятиліття аналогічним способом тренували перших космонавтів, даючи їм досвід зміни положень тіла в польоті.

 

І, звісно, не можна не згадати про роль батута у створенні окремого виду спорту. 1964 року відбувся перший чемпіонат світу зі стрибків на батуті, а з 2000 року ця дисципліна стала частиною Олімпійських ігор. На сучасному батуті для змагань досвідчений спортсмен може підстрибувати на висоту до 10 метрів, виконуючи кілька сальто і поворотів. Міні-батути діаметром близько одного метра зараз часто використовують для фізичних тренувань. А спеціальні батути, обладнані з боків захисною сіткою, є улюбленою розвагою для дітей.

За принципом кажана, або Що могли назвати телемобілоскопом

Наприкінці ХІХ століття фізик Генріх Герц виявив, що радіохвилі відбиваються від металевих предметів. Це привело вчених до думки, що можна створити пристрої, які могли б випускати радіохвилі в певному напрямку, а потім, коли ці хвилі відіб’ються від того чи іншого об’єкта, знову вловлювати їх і таким чином визначати відстань до цього об’єкта. До речі, подібним чином у просторі орієнтуються кажани. Щоправда, замість радіохвиль вони випускають ультразвук, а потім уловлюють вухами його відбиття від перешкод.

 

Перші прилади, які використовували принцип відбиття радіохвиль у своїй роботі, з’явилися на початку ХХ століття. У 1904 році німецький винахідник Крістіан Гюльсмейєр створив простий пристрій виявлення кораблів, призначений для запобігання зіткненням у тумані. Свою систему радіолокації, названу телемобілоскопом, Гюльсмейєр представив німецьким військовим чиновникам, але ті з якихось причин її відхилили.

 

Утім, для створення повноцінного радіолокатора (тобто пристрою, здатного визначати положення об’єктів за допомогою радіохвиль) інженерам належало винайти ще безліч важливих і дотепних технічних пристроїв і приладів: магнетрони, клістрони, лампи з рухомою хвилею, хвилеводи, підсилювальні та генераторні лампи складної конструкції.

 

Перший повноцінний радіолокаційний пристрій 1935 року створив американець Роберт Пейдж, який працював у Військово-морській дослідній лабораторії США. До речі, саме американська назва розробки radio detection and ranging — радіовиявлення та вимірювання дальності — пізніше скоротилася до radar і була прийнята в усьому світі. Слідом за американцями свої радіолокаційні системи продемонстрували Рудольф Кюнгольд із Німеччини та Роберт Ватсон-Ватт із Великої Британії.

 

Істотний прогрес у вдосконаленні систем радіолокації відбувся під час Другої світової війни. Значно прискорилися дослідження щодо пошуку кращої роздільної здатності, більшої портативності й підвищення кількості функцій для радарів. Було розроблено легкі комплекти для оснащення нічних винищувачів та морських патрульних літаків, а також додаткових навігаційних систем. До кінця військових дій усі учасники конфлікту мали широкий спектр радарів наземного і морського базування, а також невеликих авіаційних бортових систем.

 

Після війни використання радарів поширилося на численні сфери діяльності: цивільну авіацію, морську навігацію, поліцію, метеорологію та навіть медицину. Подальший розвиток радіолокації був спрямований на постійне збільшення частоти радіохвиль, що забезпечувало більш високу роздільну здатність та точність виявлення об’єктів. Крім того, великий вплив на використання радарів мала обробка їхніх сигналів комп’ютерами, що значно збільшило можливості цих приладів.

 

Нині радари стали невід’ємною частиною повсякденного життя. Вони широко використовуються в автомобілях, літаках та кораблях для виявлення перешкод та інших транспортних засобів, прогнозують погодні умови та допомагають уникнути потенційно небезпечних ситуацій, запобігаючи зіткненням та аваріям. Військові за допомогою радарів виявляють та перехоплюють ворожі літаки й ракети, а також відстежують повітряні, наземні й морські об’єкти. У медицині за допомогою радарів створюються зображення внутрішніх органів людини. А в промисловості радари використовують для контролю виробничих процесів, моніторингу рівнів рідини, вимірювання швидкості й напрямку руху об’єктів.

 

Загалом радари є важливим інструментом для гарантії безпеки, підвищення комфорту й ефективності різних процесів. Поява нових технологій дає змогу безперервно вдосконалювати радари, роблячи їх більш чутливими та підвищуючи дальність виявлення, при цьому пристрої стають все більш компактними й надійними. Значно розширити функціональність та ефективність радіолокаційних систем може їхня інтеграція зі штучним інтелектом. Крім того, саме радари відіграють ключову роль у розвитку безпілотних автомобілів та роботизованих систем.

Скловолокно

Композитні матеріали в Композитний вік

Ще стародавні єгиптяни та фінікійці, виплавляючи скло із суміші піску, вапна й соди, отримували скляні волокна — окремі волоски. Якоїсь користі вони не мали та застосовувалися виключно для прикрас.

 

Через кілька тисячоліть, у 1870 році Джон Плеєр розробив метод масового отримання скляного волокна з використанням подачі струменя пари під тиском. У результаті він винайшов скловату — матеріал, який досі широко використовується як ефективний утеплювач у будівництві та промисловості. 1880 року Герман Хаммесфар отримав патент на тканину зі скловолокна з шовковими вплетіннями. Однак технології того часу не дозволяли зробити скляні волокна досить тонкими, щоб вони добре гнулися, тому реалізувати ідею на практиці винахіднику не вдалося.

 

Сучасний метод отримання скловолокна 1938 року відкрив Дейл Клейст, причому цілком випадково. Намагаючись з’єднати два скляні блоки, щоб зробити повітронепроникний затвор, дослідник вдарив струменем стисненого повітря в потік розплавленого скла, створивши справжній фонтан із тонких скляних волокон. Клейст узяв пістолет для напилення бронзи на різні поверхні й заповнив його замість бронзи розплавленим склом. У результаті пістолет випустив сніп найтонших ниткоподібних волокон, із яких згодом була створена перша склотканина — міцний і довговічний вогнетривкий матеріал.

 

Приблизно в цей час Карлтон Елліс запатентував технологію отримання поліефірної смоли. Цей винахід можна вважати точкою відліку в розвитку композитних матеріалів, перші з яких були отримані змішуванням скловолокна і смоли.

Склотканині можна легко надати необхідної форми, після чого залити поліефірною смолою. Після застигання смола забезпечує структурну цілісність і форму композиту, а скловолокно відіграє армувальну роль — надає міцніості і жорсткості конструкції завдяки своїй стійкості до розтягнення. Таким чином, деталі зі скловолокна зі смолою виходять легкими, але надзвичайно міцними.

 

Перші кроки у розвитку композитних технологій із використанням скловолокна робилися під час Другої світової війни, зокрема у 1942 році в США з нього виготовляли перші окремі деталі для літаків. Цього ж року чоловік на ім’я Рей Ґрін завершив роботу над створенням першого композитного човна, повністю виготовленого зі скловолокна зі смоляним просоченням.

 

У 1953 році з’явився перший у світі автомобіль із кузовом зі склопластику — Chevrolet Corvette Roadster, представлений на виставці Motorama в Нью-Йорку. А в 1964 році було створено перший повністю склопластиковий планер. Завдяки легкості склокомпозиту, з якого він був виготовлений, планер міг довгий час залишатися в повітрі без будь-якої розгінної сили. Згодом зі склопластику почали виробляти басейни, електроізолятори, стінові панелі, сантехнічні труби, меблі та різні ємності.

 

У другій половині XX століття завдяки розвитку композитних технологій на зміну склопластикам прийшли вуглепластики — ще міцніші й легші матеріали, які складаються з вуглецевих волокон і полімерної смоли. Але й на цьому дослідження не закінчились.

 

Були розроблені композитні матеріали на основі арамідних волокон (таких як кевлар або тварон), які широко використовуються у виробництві бронежилетів і касок, автомобільних деталей, спортивного екіпірування для екстремальних видів спорту, а також спецодягу та обмундирування. Наприкінці XX століття почалися дослідження та розробки нанокомпозитів — матеріалів, у яких для посилення армувальних волокон використовуються наночастинки. Завдяки своїм унікальним механічним, тепловим та електричним властивостям нанокомпозити широко застосовуються у стоматології, літакобудуванні, електронному обладнанні та системах безпеки.

 

Значення композитних матеріалів у світі складно переоцінити. І якщо називати історичні епохи за матеріалами, які переважали в діяльності людини (за аналогією із залізним чи бронзовим віком), то сьогодення можна упевнено назвати композитним віком.

Копіювальний апарат Джеймса Ватта

Перший копіювальний апарат на основі електрографії (ксерографії)

Від копіювального паперу до електронних копіювальних апаратів

Навіть у стародавніх цивілізаціях існувала необхідність у веденні записів, складанні документів для обліку майна та ресурсів. З цієї причини вже в Стародавньому Єгипті й Месопотамії з’явилися перші секретарі й канцеляристи — прообрази сучасних офісних працівників.

 

У середньовічній Європі стали виникати центри адміністративного управління, такі як королівські палаци й церковні установи, де працювали писарі та діловоди, які забезпечували адміністративні функції. Виконуючи роботу, співробітникам таких установ часто доводилося складати копії документів, наприклад, щоб передавати їх декільком зацікавленим сторонам.

 

Вирішувалося таке завдання досить просто — писарі вручну створювали необхідну кількість копій. Однак із розвитком промисловості та торгівлі наприкінці XVIII століття, коли в західних країнах почали утворюватися великі компанії та фірми з великим документообігом, пов’язаним з бухгалтерією та різними юридичними аспектами, обсяг такої роботи значно збільшився, і виникла потреба у створенні технологій механічного копіювання документів.

 

Ще в 1780 році Джеймс Ватт, той самий, чиїм ім’ям у фізиці названа одиниця потужності, запатентував перший копіювальний апарат, який згодом широко застосовувався в офісах навіть у XX столітті. Суть роботи цього пристрою полягала в тому, що чорнило з лицьового боку оригіналу переносилося на зворотний бік іншого листа, змоченого розчинником і притиснутого до оригіналу. Недоліком такого методу було те, що копію треба було читати на просвіт — піднісши до світла, щоб бачити текст крізь тонкий папір.

 

У 1801 році італієць Пеллеґріно Туррі винайшов копіювальний папір — тонку підкладку з нанесеним на одну зі сторін шаром барвника. Поклавши копірку під аркуш паперу, можна було отримати копію тексту чи малюнка, зробленого олівцем або кульковою ручкою. Але повсюдно використовувати винахід Туррі для копіювання стали тільки після масового поширення друкарських машинок.

 

Слід зазначити, що копіювальний папір застосовувався в офісній діяльності до початку 1990-х років. А ще його любили діти, адже за допомогою цього паперу було дуже зручно копіювати картинки з журналів, обводячи зображення олівцем. Єдиним недоліком копіювального паперу, мабуть, було те, що при неправильному розташуванні (шаром барвника догори) зробити копію було неможливо, а на звороті оригіналу з’являлося дзеркальне відображення тексту або малюнка.

 

Справжній переворот у копіюванні документів зробив американець Честер Карлсон. Працюючи в патентному бюро Нью-Йорка, він часто стикався з необхідністю виготовлення великої кількості копій документів. Карлсон страждав від захворювання суглобів — артриту, тому процес копіювання був для нього болючим і виснажливим. З цієї причини винахідливий клерк почав експериментувати з фотокопіюванням, використовуючи як лабораторію власну кухню.

 

У результаті 1938 року Карлсон отримав патент на електрофотографію — процес сухого копіювання зображень. Першу фотокопію винахідник зробив за допомогою цинкової пластини, покритої сіркою: помістивши скло з написом на шар сірки та подавши яскраве світло, він зміг отримати дзеркальне відображення слів на пластині. Оскільки процес був недостатньо розвинений, продати свою розробку Карлсону не вдалося. Різні компанії вважали, що потреби в електронних копіювальних апаратах просто немає.

 

Лише 1944 року Меморіальний інститут Баттеля уклав із Карлсоном контракт щодо удосконалення його процесу. А 1947 року виробник фотопаперу — корпорація Haloid захотіла придбати ліцензію на розробку та продаж копіювального апарата, заснованого на електрофотографії.

 

Маркетологи з Haloid вважали, що електрофотографія — надто складне для запам’ятовування слово, тому змінили назву процесу на ксерографію — у перекладі грецької «сухе письмо». А згодом і цей термін скоротили до «ксерокс», зареєструвавши в 1948 відповідну торгову марку Xerox. До речі, саме ця назва у 1961 році змінила стару назву корпорації Haloid.

 

У 1949 році був представлений перший ксерографічний копіювальний апарат Model A. Успіх був настільки великим, що незабаром назва марки «Ксерокс» стала загальною для будь-якого процесу фотокопіювання.

 

На початку 1950-х років компанія Radio Corporation of America (RCA) представила власний варіант ксерокопіювання, при якому зображення формуються безпосередньо на папері зі спеціальним покриттям. Трохи згодом з’явилися повноколірні копіювальні апарати, здатні відтворювати кольорові копії. Однак у продажу подібні пристрої з’явилися лише 1968 року. При цьому кольорове фотокопіювання тривалий час викликало стурбованість урядів, оскільки вважалося, що воно полегшує підробку грошей та важливих документів.

 

У наступні десятиліття процес електронного копіювання безперервно вдосконалювався, проте до кінця 1970-х років для ксерокопій був потрібний спеціально підготовлений офісний папір.

 

Сучасні ксерокси використовують для роботи звичайний необроблений офісний папір і оснащені такими корисними функціями, як двосторонній друк, автоматичне сканування кількох сторінок, сортування та зшивання виведених копій. Цифрові технології, які замінили аналогові, дають змогу автоматично підвищувати якість зображення, а також надсилати відскановані документи електронною поштою або розміщувати на файлообмінних серверах.

 

Сьогодні без ксерокопіювальних апаратів неможливо уявити жоден сучасний офіс. Ксерокси широко застосовуються в освіті та наукових дослідженнях для створення копій навчальних матеріалів, статей і наукових публікацій. Ксерокопіювання відіграє важливу роль у дублюванні документів, таких як судові рішення, договори, заяви та інші юридично значущі матеріали. Це допомагає зберігати архіви й забезпечувати доступ до необхідних даних. У медичних закладах ксерокопіювання використовується для зняття копій із медичних карт, рецептів, результатів аналізів та інших медичних документів.

 

Таким чином, ксерокопіювання знаходить широке застосування в різних сферах діяльності та відіграє важливу роль в обміні інформацією, у документообігу та обробці даних у сучасному світі.

Перший комп’ютер Z1

Програмований комп'ютер для військових цілей

У всі часи люди намагалися придумати засоби, які б спростили та прискорили процес математичних обчислень. І що складнішими були ці обчислення, то різноманітнішими ставали обчислювальні пристрої: лічильні палички в доісторичні часи, перші рахівниці у Вавилоні, логарифмічна лінійка і калькулятор Паскаля в XVII столітті, механічний калькулятор Беббіджа на початку XIX століття.

 

На початку XX століття для задоволення потреб у наукових і практичних обчисленнях були потрібні вже повноцінні аналітичні пристрої, здатні обробляти великі обсяги даних і виконувати складні функції для вирішення тих чи інших завдань. З цією метою розроблялися дедалі досконаліші аналогові комп’ютери — складні обчислювальні машини, у яких основою для обчислень були різні фізичні явища (механічні, гідравлічні чи електричні величини). Однак такі комп’ютери не піддавалися програмуванню і, як правило, не мали такої універсальності й точності, як сучасні цифрові комп’ютери.

 

У 1930-ті роки розвиток електротехніки дав змогу вченим створювати перші прилади, здатні виконувати різні операції відповідно до заданих інструкцій. І хоча такі прилади були електромеханічними, тобто електричні компоненти поєднувалися в них із механічними вузлами, проте саме ці машини стали першими справжніми комп’ютерами — прабатьками сучасних цифрових комп’ютерних систем.

 

Перший електромеханічний комп’ютер був розроблений 1938 року ВМС США. Це був досить компактний пристрій, щоб його можна було застосувати на борту підводного човна. Цей комп’ютер використовував тригонометрію для вирішення завдання стрільби торпедою по рухомій цілі. Комп’ютер даних торпед (Torpedo Data Computer або скорочено TDC) не просто пропонував рішення для миттєвої стрільби, але й міг автоматично відслідковувати ціль, чим згодом встановив своєрідні стандарти управління торпедним вогнем підводних човнів під час Другої світової війни.

 

У тому ж 1938 році німецький інженер Конрад Цузе побудував перший у світі програмований комп’ютер Z1, який містив близько 30 тисяч металевих деталей. Ця машина мала використовуватися у сфері літакобудування для обчислення аеродинаміки та інших характеристик.

 

У 1939 році Цузе був призваний на військову службу, де йому надали ресурси для створення Z2. Машина, яка була удосконаленою версією Z1, була готова у вересні 1940 року і займала кілька кімнат у квартирі батьків винахідника.

1940 року уряд Німеччини почав фінансувати розробку обчислювальних машин S1 і S2, відмінною особливістю яких був вбудований аналогово-цифровий перетворювач під програмним управлінням, що робило їх першими комп’ютерами з управлінням процесом.

 

У 1941 році базова машина Z2 зазнала чергових удосконалень, і Цузе представив публіці модель Z3. Цей комп’ютер був 22-бітовим двійковим калькулятором із рухомою комою, що відрізнявся можливістю програмування за допомогою циклів, але без умовних переходів, з пам’яттю та обчислювальним пристроєм на основі телефонних реле.

 

Роботи над Z4 були перервані тим, що після бомбардування союзними військами у лютому 1945 року практично всі розробки Цузе були знищені. Талановитий учений зміг продовжити свої дослідження лише після війни.

 

Слід зазначити, що Друга світова війна дала потужний поштовх появі та розвитку перших комп’ютерів. Крім гострої потреби у вирішенні складних військових завдань, таких як балістичні обчислення, шифрування повідомлень, управління артилерією, існувала потреба у захисті військової інформації. А розшифрування кодів супротивника та розробка власних безпечних кодів потребували значних обчислювальних потужностей.

 

Так, наприклад, помітний внесок у поразку нацистської Німеччини зробило розшифрування повідомлень, закодованих за допомогою німецької шифрувальної машини «Еніґма». Створений для цієї мети англійцем Аланом Тюрінґом комп’ютер Bombe після війни масово випускався вже для цивільних потреб: було зроблено понад 200 екземплярів.

 

Американський інженер-електрик Джон Атанасов також зробив свій внесок у появу комп’ютерної техніки завдяки створенню у 1942 році електромеханічного обчислювального пристрою, який використовувався для арифметичних операцій та вирішення лінійних рівнянь. 1973 року судова влада США навіть визнала саме машину Атанасова «першим комп’ютером», хоча таке рішення і було не зовсім справедливим.

 

Історія появи комп’ютера буде неповною без згадки ще однієї американської обчислювальної машини, побудованої 1946 року Джоном Моклі. Пристрій, що отримав назву ЕНІАК (ENIAC, скорочення від Electronic Numerical Integrator and Computer — електронний числовий інтегратор і обчислювач) можна з упевненістю назвати першим повністю електронним комп’ютером, оскільки, на відміну від машин Цузе, у яких використовувалися механічні реле, в ЕНІАКу застосовувалися електронні лампи. Потужний на той час комп’ютер використовувався для розрахунку балістичних таблиць.

 

Перші комп’ютери продемонстрували можливість автоматизації та прискорення широкого діапазону завдань, зокрема математичних обчислень, наукових та інженерних розрахунків, обробки даних та управління процесами. Ці пристрої лягли в основу подальшого розвитку комп’ютерної техніки й відіграли ключову роль у формуванні сучасного інформаційного суспільства. Саме перші комп’ютери сприяли розвитку програмування як науки та мистецтва. Програмування стало необхідною навичкою для роботи з комп’ютерами, і в процесі його розвитку було сформульовано чимало принципів і методів, які продовжують застосовуватися досі.

33 роки банки відмовлялися встановлювати банкомати!

Американський винахідник вірменського походження Лютер Джордж Сімджян має понад 200 патентів, серед яких камера з автофокусуванням, телесуфлер та кольоровий рентген. Але його найвідоміший винахід, без якого сьогодні неможливо уявити собі сучасність, у буквальному розумінні значно випередив свій час.

 

У 1939 році Сімджян створив банкомат — пристрій, який видавав готівку клієнтам банку в неробочий час. Єдиним, що відрізняло прототип Сімджяна від сучасних апаратів, було те, що банкомат видавав готівку, але не списував її з рахунку, оскільки не був пов’язаний із банком. Випробувавши свій винахід, Джордж Сімджян запропонував його банку City Bank of New York, який через пів року повернув йому машину, так і не оцінивши прогресивність пристрою. Після цього про банкомат забули майже на 30 років — «друге народження» банківського автомата відбулося лише наприкінці 1960-х.

 

Примітно, що друга спроба автоматизувати банківські операції була зроблена Сімджяном в 1960 році, коли він створив автоматичний депозитний автомат, що цілодобово приймав монети, готівку й чеки. Машину, яка отримала назву «банкограф», було встановлено в Нью-Йорку 1961 року. Але вже за пів року її демонтували, оскільки великим попитом серед клієнтів вона не користувалася.

 

Більш вдалим досвід застосування банкомата був у шотландця Джона Шеппарда-Баррона. У 1967 році цей винахідник, надихнувшись принципом роботи автомата з продажу шоколаду, створив пристрій, який видавав готівку в обмін на чек, попередньо отриманий у банку. Банкомат Шеппарда-Баррона було встановлено на півночі Лондона у відділенні британського банку Barclays. Першим гроші за допомогою цього банкомата отримав актор-комік Реґ Варні, якого спеціально запросили з рекламною метою. Недоліком цього банкомата була відсутність можливості перевірити наявність грошей на рахунку клієнта, тому сума видачі готівки була обмежена 10 фунтами.

 

Значним нововведенням, реалізованим у банкоматі Шеппарда-Баррона, був чотиризначний захисний PIN-код (PIN — абревіатура від Personal Identification Number, або особистий ідентифікаційний номер). Патент на PIN-код на рік раніше отримав шотландський інженер Джеймс Ґудфеллоу. Згідно з легендою, спочатку винахідник планував зробити цей код 6-значним, але пізніше скоротив його до чотирьох символів, оскільки саме стільки цифр могла запам’ятати його дружина.

 

Англійський банкомат усього на дев’ять днів випередив розробку шведських банків під назвою Metior, і на місяць — пристрій з видачі готівки британського Вестмінстерського банку Chubb MD2.

Незабаром банкомати з’явилися в багатьох країнах світу. Уже 1971 року їх перші типи використовували приблизно 35 американських банків. А першим банком, який 1972 року почав установлювати банкомати повсюдно, став американський Citibank. Того ж року з’явилися перші онлайн-банкомати під назвою Cash-Point, розроблені компанією IBM. У них замість ваучера для видачі готівки використовувалися пластикові картки з магнітною смугою, що для клієнтів було набагато зручніше.

 

Подальший розвиток телекомунікацій дав змогу розбудовувати мережі банкоматів, які могли використовувати одразу кілька банків. До 1975 року кілька сотень пристроїв вісімнадцяти банків американського штату Вашингтон були об’єднані в мережу під назвою Exchange.

 

Наприкінці 1990-х набули поширення банкомати з функцією прийому готівки — cash-in. А в 2000-х виробники банкоматів почали впроваджувати технологію Cash Recycling, яка дозволила видавати на руки клієнтам готівку, до цього внесену в банкомат іншим клієнтом.

 

Великий вплив на індустрію банкоматів здійснив розвиток Інтернету та мобільних технологій. У 2010-х роках з’явилися безготівкові банкомати, які замість грошей видають клієнту рахунок, який той може пред’явити касиру магазину для оплати придбаного товару. Крім того, з’явилися технології, які дають змогу ідентифікувати клієнтів не за банківською карткою та паролем, а за введеною датою народження та прикладеною до сенсорного пристрою долонею.

 

Наразі банкомати виконують функції платіжних терміналів, валютообмінників та роздрібних кас самообслуговування. Вони розміщуються всередині приміщень або поза ними у банках, торгових центрах, аеропортах, продуктових магазинах, ресторанах, на залізничних вокзалах, станціях метро, заправних станціях. Банкомати є на круїзних лайнерах і навіть на деяких військових кораблях ВМС США, де моряки можуть отримати свою зарплату. Примітно, що один із банкоматів розташований на перевалі Хунджераб у Пакистані (висота 4693 метри), і він може працювати при температурі до –40 °С.

 

З розвитком технологій банкомати еволюціонуватимуть, стаючи розумнішими, зручнішими та безпечнішими інструментами для фінансових операцій. Ці пристрої продовжують відігравати ключову роль у забезпеченні доступу до фінансових послуг та мають перспективи розвитку в напрямку покращення сервісу, інновацій у технологіях і розширення доступу до послуг у різних регіонах.

Перша у світі балістична ракета

Що вигадали «Придурки з Тегеля»

Роботи зі створення балістичних і крилатих ракет розпочалися ще в кайзерівській Німеччині наприкінці Першої світової війни. Інженер Герман Оберт створив тоді проєкт великої ракети на рідкому паливі, оснащеної бойовим зарядом. Розрахункова дальність її польоту становила кілька сотень кілометрів.

 

Підписаний у Версалі мирний договір обмежував Німеччину в можливості нарощувати свій військовий потенціал з різних видів озброєнь, але це не стосувалося ракетної техніки. Роботу в цьому напрямку розпочала група інженерів із Берліна, яка називала себе «Придурки з Тегеля»: Рудольф Небель, Рольф Енґель, Курт Гайніш і Клаус Рідель. «Одного чудового дня, — стверджував Небель, — ракети витіснять артилерію і навіть бомбардувальники на звалище історії».

 

У 1929 році міністр Рейхсвера віддав секретний наказ начальнику відділу балістики та боєприпасів Управління озброєння німецької армії Беккеру про пошуки можливості збільшення дальності стрільби артсистем, зокрема використання ракетних двигунів для воєнного призначення. Завдяки цьому група ракетобудівників отримала додаткове фінансування. У жовтні 1932 року до цієї лабораторії прийшов працювати Вернер фон Браун, який незабаром став провідним конструктором ракет.

 

Головним завданням дослідницької групи було створення рідинного реактивного двигуна для балістичних ракет, тому в першу чергу вивчалися залежності співвідношення палива та окиснювача, охолодження камери згоряння та способів запалення.

 

У грудні 1934 року дві ракети, «Макс» і «Моріц», піднялися на висоту 2,2 км протягом 16 секунд — це був вражаючий результат для того часу.

 

У 1936 році дослідження набули такого розмаху, що для забезпечення необхідного ступеня секретності знадобилося шукати надійне місце. З цією метою командування Люфтваффе викупило велику територію поблизу рибальського села Пенемюнде на острові Узедом. На будівництво ракетного центру було виділено кошти. Центр, позначений у документах абревіатурою НАР, а пізніше HVP, розташовувався в незаселеній місцевості, і ракетні стрільби можна було проводити на дальність близько 300 км у північно-східному напрямку, траєкторія польоту проходила над морем. Командиром полігону було призначено полковника Вальтера Дорнберґера.

 

До 1937 року була готова ракета «Агрегат 3» (А-3) із двигуном, який увібрав у себе всі передові технологічні досягнення Німеччини. Ракета мала веретеноподібний корпус із чотирма довгими стабілізаторами. Усередині корпуса розміщувалися бак з азотом, ємність із рідким киснем, контейнер із парашутною системою для приладів реєстрації, бак із пальним та двигун. Для стабілізації ракети використовувалися спеціальні газові керма, а управління здійснювалося за допомогою трьох позиційних гіроскопів, з’єднаних із демпфувальними гіроскопами і датчиками прискорення.

 

Усі чотири пуски А-3 виявилися невдалими, через що ракетники і командування вермахту дещо зневірилися у своїй справі. Проте роботи над створенням ракет тривали. Були спроєктовані бойова ракета А-4, її зменшений варіант А-5, надзвукова ракета А-6 та крилата ракета А-7, призначена для експериментальних пусків з літака на висоті 12 000 м.

 

Основою для всіх розробок слід вважати агрегат А-4, який через десять років після початку теоретичних досліджень і шести років практичних робіт мав вигляд ракети завдовжки 14 м і діаметром 1,65 м зі стартовою масою 12,9 т. Примітно, що для консультацій щодо створення ракети залучали Германа Оберта, того самого автора концепції рідкопаливних ракетних двигунів.

 

До кінця 1941 року дослідницький центр у Пенемюнде мав технології, необхідні для успішної реалізації проєкту: великі рідинні ракетні двигуни, надзвукову аеродинаміку, гіроскопічне наведення і керма реактивного управління.

Перший успішний випробувальний політ ракети відбувся 3 жовтня 1942 року — виріб А-4 досяг висоти 84,5 км. Вальтер Дорнберґер у своїй промові в Пенемюнде заявив: «Цей третій день жовтня 1942 року — перший у новій ері сполучень, перший день ери космічних подорожей...»

 

Однак на шляху серійного виробництва постала основна проблема ракет — їхня ненадійність. У вересні 1943 року кількість успішних пусків становила лише 10–20 %. Ракети вибухали на всіх ділянках траєкторії: на старті, при підйомі та при підльоті до цілі. Лише у березні 1944-го стало зрозумілим, що сильна вібрація послаблювала різьбові з’єднання паливопроводів. Спирт випаровувався і змішувався з парогазом (кисень плюс водяна пара). «Пекельна суміш» потрапляла на розжарене сопло двигуна, далі — пожежа і вибух. Друга причина підривів — надто чутливий імпульсний детонатор.

 

Виявивши причини невдач, розробники змогли їх усунути, і 20 червня 1944 року ракета А-4 з кодовою назвою MW 18014 стала першим в історії людства штучним об’єктом, що вирушив у космос. Унаслідок вертикального запуску вона змогла подолати умовну межу космічного простору — лінію Кармана на висоті 100 км. Це був випробувальний вертикальний запуск, у завдання якого не входив вихід на орбіту, тому, досягнувши висоти 176 км, ракета впала на поверхню Землі.

 

А 7 вересня 1944 року першу серійну ракету, з метою пропаганди перейменовану на V-2 (скорочення від Vergeltungswaffe-2 — «Зброя відплати-2», читається як «Фау-2»), було випущено по Великій Британії. Ракети летіли з надзвуковою швидкістю, про їхнє наближення не могли попередити сирени повітряної тривоги, і їх було неможливо перехопити, оскільки ефективного захисту від них тоді просто не існувало.

 

Утім, навіть попри це, нацистська Німеччина зазнала поразки. Фон Браун і понад 100 основних співробітників, які були розробниками «Фау-2», здалися американцям, передавши їм багато своїх напрацювань. Разом із тим після війни виробничі потужності «Фау-2» дісталися СРСР, і випуск ракет було відновлено на острові Городомля на озері Селігер у Тверській області.

 

1946 року американські інженери, які випробовували вивезені трофейні німецькі ракети «Фау-2» на полігоні Вайт-Сендс, вирішили прикріплювати до них кінокамери, щоб побачити планету зі стокілометрової висоти. У той же час проводив випробування відновленої трофейної техніки Сергій Корольов. Саме «Фау-2» була покладена в основу космічних програм наддержав і зробила можливою космічну еру людства.

 

Однак не варто забувати, якою дорогою ціною далася ця ракета: 25 тисяч робітників та в’язнів концтаборів загинули внаслідок їхньої примусової участі у виробництві першої балістичної зброї, а атаки «Фау-2» призвели до загибелі ще приблизно 9 тисяч цивільних осіб та військовослужбовців.

Перший у світі ядерний реактор «Чиказька дров’яниця-1»

Ядерна енергія на службі війни і миру

Після того як у 1932 році британський фізик Джеймс Чедвік відкрив нейтрон — важку елементарну частину, що не має електричного заряду, угорський учений Лео Сцілард у 1933 році висловив ідею про можливість ланцюгової ядерної реакції, викликаної «бомбардуванням» атомів. Простіше кажучи, розігнані нейтрони, врізаючись у ядро атома, руйнують його на частини. При цьому велике ядро розбивається на два-три менші ядра, а найголовніше — виділяється величезна кількість енергії.

 

Залишалося розробити технологію, яка забезпечувала б відповідне джерело нейтронів для випускання їх у потрібному напрямку. Розробку так званої нейтронної гаубиці розпочали провідні фізики того часу.

 

У 1938 році Отто Ган, Фріц Штрассман і Ліза Мейтнер змогли розщепити ядра урану, виявивши, що при цьому утворюються залишки барію і криптону, а також вивільняються додаткові нейтрони, які можна використовувати для подальшого поділу ядер атомів. Таким чином була відкрита можливість ланцюгової реакції — подібно до того, як у ланцюжку з доміно падіння першої кісточки призводить до падіння однієї за одною всіх наступних, розподіл атомного ядра веде до подальшого розподілу інших ядер атомів.

 

У 1939 році почалася Друга світова війна, а ланцюгова реакція розподілу ядер, здатна бути руйнівною зброєю, стала предметом дослідження у Німеччині, США та СРСР.

«Урановий проєкт» нацистської Німеччини очолював Карл Фрідріх фон Вайцзеккер. Уже пізньої осені 1940 року було здійснено першу спробу створення ланцюгової реакції. Однак наявного матеріалу для поділу — оксиду урану — для досягнення цієї мети не вистачило.

 

 

1942 року власна ядерна програма стартувала в США під назвою «Мангеттенський проєкт». Ця програма здійснювалася у співпраці з британським комітетом MAUD, а керував нею італієць Енріко Фермі. 2 грудня 1942 року в університеті Чикаго був побудований і успішно випробуваний перший штучний ядерний реактор «Чиказька дров’яниця-1» (Chicago Pile-1), названий так через свою досить незграбну конструкцію, схожу на укладені штабелями дрова. У реакторі використовувався природний уран. Для досягнення критичності була потрібна дуже велика кількість матеріалу, а також графіт, що використовується як сповільнювач нейтронів.

 

Реактор містив 45 000 блоків надчистого графіту вагою 330 тонн і живився 5,4 тоннами металевого урану та 45 тоннами оксиду урану. На відміну від більшості подальших ядерних реакторів, він не мав радіаційного захисту чи системи охолодження, оскільки працював на дуже низькій потужності — близько половини вата.

 

Починаючи з 1943 року, американці розробили цілу низку ядерних реакторів для «Мангеттенського проєкту», основною метою яких було масове виробництво плутонію для ядерної зброї. Примітно, що видача патенту фізикам Фермі та Сціларду, заявку на який було подано в грудні 1944 року, відклали на 10 років через секретність воєнного часу.

 

Німецьким ученим удалося досягти повноцінної ядерної реакції лише в лютому 1945 року в експерименті, проведеному в гірничому виробітку поблизу Гайґерлоха. Проте за кілька тижнів ядерна програма Німеччини припинила своє існування, а в травні був підписаний акт про капітуляцію.

 

На той час американцям уже вдалося створити три атомні бомби, першу з яких — «Трініті» («Трійця») — випробували вперше у світі 16 липня 1945 року в Нью-Мексико, а дві інші — «Малюк» і «Товстун» — були скинуті у серпні 1945 року на японські міста Хіросіма та Нагасакі. Унаслідок цих вибухів, а також від радіоактивного опромінення загинули сотні тисяч людей. Виняткова руйнівна здатність ядерної зброї, продемонстрована бомбардуваннями, стала відправною точкою гонки ядерних озброєнь між США та СРСР, до якої пізніше приєдналися інші країни.

 

Утім, ядерну енергію після завершення Другої світової війни використовували не лише для руйнівного воєнного застосування. Крім атомних електростанцій цивільного призначення, що з’явилися в 1950-ті роки, технологія ядерних реакторів використовувалася як джерело енергії для літаків, кораблів і підводних човнів, а з 1960 до 1963 року перший переносний ядерний реактор Alco PM-2A застосовувався для вироблення електроенергії для військово-наукової дослідницької бази Camp Century («Табір століття»), розташованої в товщі льодовиків Гренландії, що діяла з 1959 до 1967 року.

 

Загалом відкриття ланцюгової ядерної реакції стало важливим моментом у розвитку науки і технологій, суттєво вплинувши на енергетичну, економічну й політичну сфери життя людства.

«Дивовижний генератор»

У 1912 році швейцарський фізик Генріх Ґрайнахер, намагаючись знайти способи вимірювання маси електрона, винайшов магнетрон — пристрій, що є потужною вакуумною трубкою, яка генерує електромагнітні мікрохвилі. Спочатку магнетрони використовувалися в ранніх системах радіолокації, тому фізики безперервно вдосконалювали їхню конструкцію. Зокрема під час Другої світової війни магнетрон із резонатором став вирішальним компонентом у розробці короткохвильового радара.

 

1945 року американський інженер-самоучка Персі Спенсер, працюючи над черговою радіолокаційною установкою, випадково помітив, що при включенні обладнання в його кишені почав плавитися шоколадний батончик. З’ясовуючи причини цього явища, Спенсер зрозумів, що все відбувається через мікрохвилі, створювані магнетроном. Винахідник швидко здогадався, що такий ефект може приносити користь, і створив мікрохвильову піч. Першою їжею, приготованою в мікрохвильовій печі Спенсера, був попкорн, а другою — яйце, яке вибухнуло на очах в експериментатора.

 

8 жовтня 1945 року компанія Raytheon подала заявку на патент на процес приготування їжі в мікрохвильовій печі Спенсера, і невдовзі після цього перша комерційна мікрохвильова піч була розміщена в бостонському ресторані для випробувань.

 

У чому полягає секрет мікрохвильової печі? Як відомо, усі навколишні предмети (як і ми самі) складаються з молекул і атомів. При цьому молекули перебувають у безперервному русі, і що швидше вони рухаються, то вища температура матеріалу, який із них складається. Нагріваючи якийсь предмет, ми передаємо йому теплову енергію, яка змушує молекули рухатися швидше. Однак у випадку мікрохвиль процес відбувається дещо інакше. Річ у тім, що молекула води являє собою так званий диполь: частина молекули в ділянці атомів водню заряджена позитивно, а поблизу атома кисню — негативно (зовсім як батарейка з плюсом з одного боку і мінусом з іншого).

 

При дії електромагнітного поля на молекулу вона повертається, немов стрілка компаса, намагаючись вирівнятися вздовж магнітних ліній. А оскільки мікрохвилі генерують постійно змінюване магнітне поле, то молекулам води доводиться весь час крутитися з боку в бік — саме так мікрохвилі змушують їх рухатися швидше, розігріваючи таким чином їжу, яка практично завжди містить в собі молекули води. При цьому мікрохвильове випромінювання не може проникати всередину металевих оболонок, тому неможливо приготувати їжу в мікрохвильовій печі в металевому посуді.

 

Варто зазначити, що ще 1934 року український письменник-фантаст Володимир Владко описав процес приготування їжі за допомогою нагрівання мікрохвильовим електромагнітним випромінюванням у фантастичній повісті «4-УКХ-4», що пізніше перевидавалася під назвою «Чудовий генератор».

 

Цікаво, що у 1950-ті роки технологію мікрохвильового нагріву навіть намагалися використати з науковою метою, повертаючи до життя заморожених за дуже низьких температур ховрашків.

 

У 1947 році компанія Raytheon почала продавати перші комерційно доступні мікрохвильові печі Radarange. Така піч була великою шафою висотою майже 2 метри і вагою 340 кілограмів. Коштувала ця мікрохвильовка близько 5000 доларів — як два нові легкові автомобілі. Вона споживала 3 кіловати електроенергії (приблизно втричі більше, ніж сучасні мікрохвильові печі) та мала водяне охолодження. З часом мікрохвильові печі Radarange вдосконалювалися і ставали все ефективнішими, а водночас і дешевшими. Проте до початку 1960-х мікрохвильова піч залишалася дорогим задоволенням, доступним далеко не кожному, і тому ці пристрої були не надто поширені.

 

Примітно, що одна з печей Radarange була встановлена на камбузі першого у світі атомного вантажопасажирського судна «Саванна», спущеного на воду в липні 1959 року. І хоча сьогодні цей атомохід давно виведений зі складу флоту, він залишається в хорошому стані і використовується як корабель-музей, пришвартований на стоянці біля пірсу морського терміналу Кантона в Балтіморі.

 

У 1961 році виробництво мікрохвильових печей розпочала японська корпорація Sharp. У період з 1964 до 1966 року ця компанія представила першу мікрохвильову піч із поворотним столиком, завдяки якому забезпечувалося більш рівномірне нагрівання їжі.

 

Raytheon представила свою першу популярну модель мікрохвильової печі для домашнього використання у 1967 році. На відміну від моделей Sharp, у мікрохвильовій печі Raytheon обертався не столик, а магнетрон у верхній частині камери, тобто їжа залишалася нерухомою.

 

Інша американська компанія Litton Industries у другій половині 1960-х розробила сучасну конфігурацію мікрохвильової печі — коротку та широку. Новинка здійснила справжній переворот на ринку кухонної техніки. Якщо ще 1970 року обсяг продажів мікрохвильових печей у США становив близько 40 тисяч одиниць на рік, то до 1975 року він зріс до одного мільйона.

 

Упродовж більшої частини 1970-х років великі виробники побутової техніки пропонували мікрохвильові печі у комбінованому виконанні з традиційною духовкою. Вони виглядали як звичайні кухонні плити, але мали можливість використання мікрохвиль у камері духовки для прискорення приготування їжі. Такий варіант влаштовував як споживачів, яким не доводилося шукати додаткове місце для мікрохвильової печі на кухні, так і виробників, які економили на виробництві окремих корпусів для мікрохвильових печей, завдяки чому могли пропонувати більш доступні ціни.

 

1974 року компанія Amana вперше представила мікрохвильову піч із функцією розморожування, а 1975-го — модель із мікропроцесорним управлінням та цифровою панеллю.

 

Поступово мікрохвильові печі ставали дедалі доступнішими, і сьогодні мікрохвильова піч — це вже, мабуть, стандартне кухонне приладдя для більшості сімей. Сучасні пристрої можуть бути окремими або вбудованими, з поворотним столиком або без нього. Як правило, більшість моделей оснащено стандартними програмами приготування різних страв, а деякі навіть мають режим конвекції для більш рівномірного розігріву їжі з усіх боків або гриль, що дає змогу отримувати апетитну скоринку на стравах (самі по собі мікрохвилі просто не можуть розігріти їжу до такої температури).

 

Традиційні мікрохвильові печі живляться від внутрішнього джерела високої напруги, що працює від мережевого трансформатора. Така схема дозволяє мати лише два рівні вихідної потужності: повністю увімкнений або повністю вимкнений. Для отримання проміжних налаштувань система управління мікрохвильової печі поперемінно вмикає і вимикає повну потужність кожні кілька секунд. Однак у нових моделях часто використовується інверторна схема живлення, що забезпечує безперервний потік потужності, а отже більш рівномірне приготування. До того ж інверторні мікрохвильові печі, як правило, більш енергоефективні.

 

Попри поширені забобони, мікрохвильові печі абсолютно безпечні для людини. Випромінювання поза піччю та блокування, що запобігає її роботі при відкритих дверцятах, регламентуються суворими виробничими стандартами, а на властивості їжі, приготованої за допомогою мікрохвиль, вони ніяк не впливають. Однак слід пам’ятати про деякі правила безпеки при використанні цього пристрою:

  • Небажано поміщати в мікрохвильову піч посуд із металевим напиленням («золотими візерунками») — навіть цей тонкий шар металу сильно нагрівається вихровими струмами, що може зруйнувати посуд у ділянці металевого напилення.
  • Не можна нагрівати в мікрохвильовій печі рідину в герметично закритих ємностях і цілі пташині яйця: через значне випаровування води всередині створюється високий тиск, тому вони можуть вибухнути.
  • Заборонено вмикати порожню мікрохвильову піч. Необхідно, як мінімум, поставити в неї склянку води.
  • Розігріваючи в мікрохвильовій печі воду, також слід дотримуватися обережності: вода схильна до перегрівання, тобто до нагрівання вище температури кипіння. Перегріта рідина здатна майже миттєво закипіти від необережного руху. Що гладкішою і одноріднішою є внутрішня поверхня посудини з водою, то вищий ризик. Якщо у посудини вузька шийка, то в момент початку кипіння перегріта вода може вилитися й обпекти руки.

 

Нині мікрохвильова технологія, крім використання в кулінарії, широко застосовується і в інших цілях. У медицині — для діагностики та лікування ракових захворювань, у промисловості — для сушіння, випалювання й обробки матеріалів, у науці — для дослідження властивостей речовин та хімічного синтезу.

Дослідження напівпровідників та відкриття транзисторного ефекту

Ще в 1874 році німецький фізик Карл Фердинанд Браун виявив, що при контакті металевого вусика з кристалом сульфіду свинцю електричний струм йде лише в одному напрямку і не проводиться у зворотному. Пізніше явище односторонньої провідності було виявлено і в роботі з іншими кристалами напівпровідників, тобто матеріалів, на здатність яких пропускати електричний струм значно впливають концентрації різних домішок, температура і різні види випромінювання (наприклад, основною властивістю напівпровідників є збільшення електричної провідності зі зростанням температури).

 

У 1906 році інженер Ґрінліф Віттер Піккард створив заснований на односторонній провідності електронний компонент — точковий напівпровідниковий діод-детектор, проте революції в електроніці це відкриття не зробило. Річ у тім, що природа напівпровідників на той момент була мало вивчена й незрозуміла. До того ж приблизно в цей же час були винайдені вакуумні діод і тріод, що започаткувало розвиток вакуумної електроніки.

 

Як правило, такі електронні компоненти поміщали всередину скляної колби, з якої відкачували повітря, і загальний вигляд конструкції нагадував електричні лампи, внаслідок чого таку електроніку стали називати ламповою. Електронні лампи, які відрізнялися стабільною роботою, на 50 років стали основою всіх електронних приладів, і навіть їх досить великі розміри нікого особливо не хвилювали.

 

Потенційних перспектив напівпровідників тоді ніхто просто не побачив. З цієї ж причини залишився практично непоміченим запатентований 1925 року польовий транзистор фізика Юліуса Едґара Лілієнфельда, призначений для заміни тріодної лампи. Сам винахідник не опублікував жодної статті про свою розробку, але оскільки до виробництва високоякісних напівпровідникових матеріалів залишалося ще кілька десятиліть, ідеї Лілієнфельда на той момент все одно не знайшли б практичного застосування.

 

Друга світова війна підштовхнула дослідників до пошуку нових рішень у галузі електроніки. У червні 1945 року американська корпорація Bell Labs («Лабораторії Белла»), яка працювала над приймачами мікрохвильових радарів, приступила до створення «кристалічних» змішувальних діодів із надзвичайно чистого германію.

 

Традиційні лампові схеми не перемикалися досить швидко, тому розробники згадали свої дослідження 1936 року щодо створення твердотільних перемикачів, здатних замінити електромеханічні реле телефонних станцій. Результатом цих досліджень стало відкриття p-n переходу — ділянки зіткнення двох напівпровідників з різними типами провідності (p від англ. positive — позитивна; n від англ. negative — негативна).

 

Електричні процеси в p-n переходах уже 1939 року дали можливість сформулювати принцип роботи електронного компонента, названого згодом польовим транзистором. Якщо порівняти електричний струм із потоком води, то польовий транзистор — це кран, який регулює цей потік. А управління цим «краном» здійснюється зовнішнім електромагнітним полем, створюваним третім (керівним) електродом.

 

У процесі досліджень було встановлено, що в реальному напівпровіднику ефект поля був значно слабшим, ніж у теорії, тому робота поступово все далі відходила від початкового задуму.

16 грудня 1947 року Волтер Браттейн, Вільям Шоклі та Джон Бардін сконструювали контактний вузол із пластмасової трикутної призми з наклеєною на неї смужкою золотої фольги з тонким прорізом, створивши перший працездатний біполярний точковий транзистор.

 

 

Назва «напівпровідниковий тріод» видалася творцям надто довгою. Після розгляду різних варіантів, серед яких був навіть екзотичний «йотатрон», прийняли пропозицію Джона Пірса — транзистор, слово, утворене з’єднанням термінів transconductance (активна міжелектродна провідність) та variable resistor або varistor (змінний опір, варистор) або, за іншими версіями, від слів transfer — передача та resist — опір.

 

Розуміючи важливість відкриття, керівництво Bell Labs на якийсь час засекретило проєкт. Публіка дізналася про цей винахід лише 30 червня 1948 року на відкритій презентації транзистора у Нью-Йорку. На той час вже було створено перший транзисторний підсилювач звукових частот із п’ятнадцятиразовим підсиленням напруги, а також перший транзисторний генератор.

 

У 1956 році Вільям Шоклі, Волтер Браттейн та Джон Бардін були нагороджені Нобелівською премією з фізики «за дослідження напівпровідників та відкриття транзисторного ефекту». Цікаво, що Джон Бардін незабаром вдруге був удостоєний Нобелівської премії за створення теорії надпровідності.

 

Точковий транзистор, що випускався серійно близько десяти років, виявився тупиковою гілкою розвитку електроніки. Йому на зміну в 1950 році прийшов площинний транзистор, за яким пішли сплавний та електрохімічний, а потім з’явився і дифузійний меза-транзистор.

 

1954 року компанія Texas Instruments випустила перший кремнієвий транзистор. Відкриття процесу мокрого окиснення кремнію уможливило випуск у 1958 році перших кремнієвих меза-транзисторів, а в березні 1959 року з’явився перший кремнієвий планарний транзистор. Дешевий кремній, другий за поширеністю (після кисню) елемент у земній корі, вміст якого становить до 30 %, повністю витіснив рідкісний германій, а планарний процес став основною технологією виробництва транзисторів і уможливив створення монолітних інтегральних схем.

 

Поява транзисторів здійснила переворот у світі електроніки та зв’язку, змінивши звичні способи спілкування, роботи та розваг людей у всьому світі.

 

Наразі транзистори є основними будівельними блоками практично всіх сучасних електронних пристроїв, зокрема комп’ютерів, телефонів, телевізорів, радіоприладів тощо. Завдяки транзисторам розміри електронних приладів стали компактними, а енергоспоживання низьким, з’явилася можливість створювати портативні пристрої, такі як смартфони, ноутбуки й планшети.

Транзистори забезпечують можливість посилення та перемикання електричних сигналів, що робить їх необхідними для створення складних електронних схем.

 

Еволюційний розвиток транзисторних технологій привів до появи мікропроцесорів, які є основою всіх сучасних комп’ютерів.

 

Транзистори сприяли розвитку засобів комунікації, таких як стільниковий зв’язок, Інтернет і цифрове телебачення. З їх допомогою стало можливим створення більш ефективних і компактних пристроїв для передавання й обробки інформації.

 

Загалом транзистори та електроніка на їх основі украй важливі для розвитку нових галузей економіки, таких як інформаційні технології, електронна комерція та цифрові послуги. Вони також сприяли зростанню виробництва й покращенню якості життя.

 

З появою нанотехнологій та наноматеріалів відкрилися широкі можливості для створення ще менших за розмірами й енергоефективніших транзисторів.

 

Нанотранзистори відкривають перспективи для подальшого зменшення розмірів електронних пристроїв та підвищення їхньої продуктивності.

 

Транзистори, які працюють на основі квантових ефектів, обіцяють значно покращити продуктивність та енергоефективність електроніки. Вони можуть бути використані у комп’ютерах та інших пристроях, здатних обробляти інформацію на квантовому рівні.

 

Розвиток гібридних штучних матеріалів дає змогу створювати транзистори з унікальними властивостями, такими як висока швидкість роботи, низьке енергоспоживання та стійкість до радіації. Ці матеріали можуть бути застосовані в різних галузях, зокрема в електроніці, оптиці й фотоніці.

 

Графен, двомірний матеріал, що має особливі електричні та механічні ознаки, відкриває перспективи для створення нового покоління транзисторів.

 

Графенові транзистори можуть бути більш швидкими й ефективними порівняно з традиційними кремнієвими пристроями.

 

Транзистори продовжують залишатися ключовим елементом сучасних електронних пристроїв та відіграють важливу роль у подальшому розвитку технологій і суспільства. Вони продовжать еволюціонувати та знаходити нові застосування у різних галузях людської діяльності.

Перший конструктор LEGO

«Тільки найкраще досить добре»

У 1932 році данський тесляр Оле Кірк Крістіансен заснував компанію з виробництва меблів. Як супутню продукцію Крістіансен випускав мініатюрні версії своїх виробів як сувеніри, що зрештою надихнуло його на виробництво дерев’яних іграшок.

 

У 1934 році для компанії було обрано назву LEGO — скорочення від данського словосполучення leg godt, що означає «грати добре». Цікаво, що з латини LEGO перекладається як «я збираю», тому можна сказати, що обрана назва визначила майбутнє компанії, яка на той момент ще не випускала конструкторів.

 

А через два роки, 1936 року, Крістіансен вигадав девіз компанії, який використовується досі: «Тільки найкраще досить добре».

 

Якийсь час рішення Крістіансена зосередити всі зусилля компанії на випуску іграшок, відмовившись від виробництва меблів, видавалося суперечливим. Проте з початком Другої світової війни до компанії LEGO нарешті прийшов успіх. Річ у тім, що через військові дії припинився імпорт, тобто ввезення іграшок до Данії з-за кордону. Крім того, в умовах переведення промисловості на військові рейки було заборонено використовувати метал та гуму для виробництва іграшок. Таким чином, попит на дерев’яну продукцію LEGO збільшився у рази.

 

У 1942 році на фабриці сталася пожежа, яка практично знищила справу всього життя Крістіансена. І хоча страховка не перекрила всіх збитків, банк надав підприємцю необхідний кредит, унаслідок чого на місці старої деревообробної фабрики було збудовано спеціалізоване підприємство з випуску іграшок.

 

Тим часом ще в 1936 році англієць Гіларі Пейдж, власник невеликого магазину під назвою Kiddicraft, почав виробництво власних іграшок з використанням нової для того часу технології пластикового лиття під тиском. Крім іншого, Пейдж почав випускати «самоблокувальні будівельні кубики» — порожнисті пластикові квадратики з чотирма шпильками зверху, які дозволяли з’єднувати їх між собою без бічного зміщення. Патент на цю розробку Пейдж отримав у 1939 році.

 

Після Другої світової війни пластик став доступним у Данії, і у 1947 році LEGO придбала машину для лиття пластмас під тиском. Освоєння нового для компанії напрямку зайняло певний час, і повноцінне виробництво пластикових іграшок почалося лише 1949 року, коли й з’явився перший конструктор LEGO, випущений за ліцензією, отриманою від Гіларі Пейджа. Варто зазначити, що права на кубики Kiddicraft були викуплені у нащадків Пейджа лише в 1981 році.

 

У 1950-х роках син Крістіансена Ґотфрід, який бачив у конструкторі LEGO величезний потенціал, почав працювати над удосконаленням кубиків, які на той момент були ще недостатньо універсальними і мали проблеми з фіксацією. Сучасний дизайн кубиків LEGO було розроблено до 1958 року. На один лише пошук відповідного матеріалу — полімеру АБС (акрилонітрил-бутадієн-стирол) — пішло цілих п’ять років. А вже у 1960-ті конструктор LEGO набув популярності на всіх континентах.

 

1968 року в Данії було відкрито перший Леголенд — парк розваг, практично повністю побудований із конструктора LEGO. Нині існує 11 парків Леголенд у Великій Британії, Німеччині, Японії, Південній Кореї, Малайзії, Об’єднаних Арабських Еміратах, США та Італії, а також планується будівництво ще чотирьох парків у Китаї.

 

У 1969 році вперше з’явилася лінійка конструкторів Duplo, розміри яких вдвічі перевищували ширину, висоту та глибину стандартних блоків LEGO. Таким конструктором могли грати зовсім малі діти без ризику проковтнути дрібні деталі. А в 1978 році LEGO випустила перші міні-фігурки, які відтоді є невід’ємною частиною більшості наборів.

 

Згодом конструктори LEGO стали не просто розвивальною іграшкою, а справжньою частиною культурного життя сучасної цивілізації, забезпечуючи творче самовираження та соціальні взаємодії. У 1998 році кубики-цеглинки LEGO одними з перших потрапили до створеної в США Національної зали слави іграшок. У травні 2011 року 13 комплектів LEGO було доставлено на Міжнародну космічну станцію, де астронавти будували моделі, щоб побачити, як вони будуть реагувати в умовах мікрогравітації.

 

У травні 2013 року в Нью-Йорку був виставлений зібраний з конструктора зореліт із «Зоряних воєн» — найбільша з коли-небудь створених моделей LEGO, побудована з більш ніж 5 мільйонів цеглинок. Іншими рекордсменами є 34-метрова вежа та залізниця завдовжки 4 км.

У лютому 2015 року LEGO був названий найвпливовішим брендом у світі.

Перша кредитна картка

Сучасні платіжні картки

Шлях від металевих жетонів до інтернет-банкінгу

Напевно, не буде перебільшенням сказати, що зараз немає людей, які не знають, що таке банківська картка. Цей зручний інструмент для оплати товарів та послуг не тільки не менш відомий, ніж готівка, але й стрімко витісняє її з повсякденного користування з багатьох причин. По-перше, банківські картки дуже зручні — не потрібно носити із собою готівку, яку можуть вкрасти. По-друге, це безпечно, тому що за умови правильного використання картки ніхто, крім вас, не зможе витратити ваші гроші. По-третє, це вигідно, оскільки багато банківських карт мають такі функції, як нарахування відсотка на залишок або кешбек, завдяки якому можна заробляти, просто витрачаючи гроші.

 

Примітно, що дуже часто банківські картки асоціюються в першу чергу з кредитними картками, хоча, крім них, є й інші види карток: наприклад, дебетові (пов’язані з рахунком у банку) і передплачені (що вимагають попереднього внесення на них коштів).

 

Однак так історично склалося, що з моменту появи в банківській системі основним видом карток були саме кредитні. Ці картки надавали можливість власнику позичати гроші у банку на певний термін з подальшим поверненням боргу. Цей поширений тип карток привів до формування асоціації між банківськими картами і кредитом.

 

Саме кредитні картки залишаються найпопулярнішим видом банківських карток на сьогодні. Вони пропонують широкий спектр можливостей, таких як кредитний ліміт, виплата платежів протягом певного терміну без відсотків тощо. Тому для більшості людей терміни «кредитка» і «банківська картка» означають просто одне й те саме — картку, випущену банком, яку вони використовують для здійснення різних фінансових операцій, зокрема покупки та зняття готівки.

 

Попередниками кредитних карток вважають металеві жетони, які американські торговці видавали своїм клієнтам ще за часів Дикого Заходу. Торгівля в борг у ті часи була дуже популярна, і продавці просто робили відбиток жетона у своїх книгах обліку навпроти імені покупця, а наприкінці місяця підраховували всі позначки, щоб клієнт розрахувався за всі здійснені покупки.

 

Сам же термін «кредитна картка» вигадав письменник-фантаст Едвард Белламі, який у 1887 році описав їх у своєму романі «Погляд назад». Примітно, що описані у творі кредитні картки за сучасними уявленнями було б правильніше назвати дебетовими — як бачите, плутанина з цього питання була ще до появи самих банківських карток…

 

У 1914 році компанія Western Union випустила першу картонну клієнтську картку, на якій була фіксована одноразова сума кредиту. Компанія ця, заснована 1851 року з метою об’єднання всіх телеграфних ліній на заході Сполучених Штатів (Western Union перекладається як «Західний союз»), у 1871 році вирішила надати своїм клієнтам послуги грошових переказів.

 

Перевозити готівку в ті часи було досить небезпечно, тому можливість здати гроші в касу телеграфу, щоб одержувач зміг забрати їх на телеграфі іншого міста після відповідного повідомлення, дуже сподобалася багатьом клієнтам. Прибуток, отриманий від надання даного сервісу, перевершив усі очікування компанії, тому згодом це стало основним напрямом її діяльності, аж до нашого часу. Утім, звичайно ж, клієнтська карта Western Union хоч і давала можливість користуватися певним грошовим кредитом, але не мала жодного стосунку до банківської системи.

 

Початок кредитних карток у сучасному розумінні був покладений фахівцем зі споживчого кредитування Національного банку Flatbush у Брукліні Джоном Біґґінсом, який у 1946 році організував систему Charge-it. Суть її полягала в тому, що покупці оплачували товари розписками, після чого магазин віддавав ці розписки до банку, який одразу оплачував товари з рахунків покупців. У цій системі не вистачало лише одного — власне кредитної картки, яка б замінила собою купівельні розписки…

 

Перша кредитна картка як така з’явилася 1950 року. Ральф Шнайдер і Френк Макнамара заснували компанію Diners Club, метою якої було об’єднати клієнтські картки різних торгових організацій в одну. У результаті з’явилася платіжна картка «загального призначення», яку приймали у 14 ресторанах Нью-Йорка.

 

Примітно, що перші кредитки мали необмежений ліміт, тому їх видавали лише заможним людям, яких банк знав особисто і яким беззастережно довіряв. З цієї причини сама наявність у людини кредитної картки свідчила про її надзвичайно високий статус та фінансове становище.

 

Кредитні картки виявилися настільки затребуваними, що за рік їх кількість зросла з 200 до 20 000. При цьому розрахуватися кредитними картками Diners Club можна було вже в 285 ресторанах.

Поступово до системи підключалися нові й нові торгові організації.

 

І 1958 року з’явилася кредитна картка Carte Blanche. Взагалі це словосполучення, яке перекладається з французької як біла (порожня) карта, спочатку означало порожній банківський чек, який вручався власником довіреній особі, щоб вона могла сама проставити будь-яку суму. Таким чином, вираз «дати карт-бланш» означав (і означає досі) надання необмежених повноважень. Примітно, що кредитна картка Carte Blanche існує досі — сьогодні вона входить до платіжної системи Mastercard і надає своїм власникам безліч привілеїв.

 

У тому ж 1958 році була заснована компанія American Express, яка створила всесвітню мережу кредитних карток (хоча спочатку це були звичайні платіжні картки, яким пізніше додали функції отримання кредиту).

 

А ще 1958 року Bank of America став першим у світі банком, який випустив кредитні картки. 60 000 банківських карток зі встановленим кредитним лімітом у розмірі 500 доларів були поширені серед жителів міста Фресно в Каліфорнії. А вже за рік таких карток було понад два мільйони, їх приймали до оплати близько 20 000 фірм та підприємців.

 

Примітно, що перші банківські кредитні картки масово розсилали поштою усім, навіть безробітним, п’яницям та іншим малонадійним клієнтам. Спеціальний помічник президента Джонсона Бетті Фернесс порівняла це з «роздаванням цукру діабетикам». Такі масові розсилки проіснували до 1970 року, після чого були заборонені законом. Однак на той час населення США вже отримало близько 100 мільйонів кредитних карток.

 

Система була комп’ютеризована лише в 1973 році під керівництвом Ді Хока, першого генерального директора Visa. До цього часу торговці часто приймали платежі кредитними картками без будь-яких перевірок, що служило благодатним ґрунтом для різних шахрайських махінацій. І навіть попри це, кредитні картки не лише не зникли, а й поширилися в усьому світі. По-справжньому безпечними операції з кредитними картками стали лише на початку XXI століття, коли постійно підключені платіжні термінали стали повсюдними.

 

Перші термінали для прийому кредиток з магнітною смугою були встановлені наприкінці 1970-х. До цього карти приймали, проводячи їх крізь апарат, який робив на них спеціальний відбиток — сліп. І це при тому, що перші банківські картки з магнітною стрічкою для банкоматів існували в Лондоні ще 1967 року.

 

Прототипи сучасних чіпових кредитних карток з’явилися 1983 року у Франції, де їх використовували для оплати телефонних рахунків. Над розробкою стандартних банківських пластикових карток зі вбудованою мікросхемою, яка нагадує сім-карту мобільного телефона, в Європі почали працювати лише на початку 1990-х років.

 

У грудні 2002 року платіжна система Masterсard уперше протестувала безконтактні мікросхемні картки PayPass, а загальний стандарт для них було прийнято Mastercard та VISA лише у 2005 році.

Нині банківським карткам уже й не обов’язково існувати фізично — у вигляді пластикової пластини. Достатньо мати віртуальну платіжну картку в додатку онлайн-банкінгу на смартфоні, щоб розплачуватися за допомогою безконтактної технології, здійснювати перекази або знімати готівку в банкоматах.

 

Оскільки електронні платежі стали невід’ємною частиною нашого повсякденного життя, критичне значення має безпека використання банківських карток. Для її забезпечення застосовуються такі заходи, як багатофакторна автентифікація, моніторинг транзакцій, шифрування даних, спеціальне програмне забезпечення від фішингу та шахрайства, біометрична автентифікація тощо. При цьому важливо пам’ятати, що безпека також залежить від самого власника картки.

 

Уважність при здійсненні покупок, захист паролів та інформації про картку — також важливі аспекти гарантії безпеки.

 

Найімовірніше, функціональність банківських карток розширюватиметься і покращуватиметься відповідно до швидкозмінюваних потреб і розробок. Розвиток Інтернету речей (IoT), блокчейну та інших нових технологій може привести до появи нових способів використання банківських карток, наприклад, для автоматичного здійснення платежів у розумних пристроях. А банки все більше моніторитимуть дані про покупки та поведінку клієнтів для надання персоналізованих послуг та пропозицій, пов’язаних із використанням банківських карток.

Розробка термоядерної бомби

Відкриття у 1938 році реакції поділу ядра атома, при якій вивільняється колосальна кількість енергії, привело до створення ядерних реакторів і надзвичайно руйнівної та смертоносної ядерної зброї. Однак ще в 1920 році фізик Артур Еддінґтон описав іншу реакцію на рівні атомів, коли їхні ядра не розділяються, а навпаки, зливаються одне з одним.

 

При цьому енергії виділяється ще більше, ніж при реакції розподілу, але сам процес пов’язаний з певними труднощами. Річ у тім, що у звичайних умовах ядра атомів мають однакові заряди, тому відштовхуються одне від одного. Щоб подолати це відштовхування, потрібно розігнати частинки ядер до надзвичайно високих швидкостей. Зовні це виявлятиметься як дуже висока температура — кілька мільйонів градусів. Саме тому реакції злиття ядер атомів називають термоядерними.

 

Примітно, що кожен із нас багаторазово спостерігав термоядерну реакцію — сонце на небі є чудовим прикладом такого процесу. Еддінґтон у своїй науковій роботі саме пояснював природу зірок і висунув припущення, що джерелом їхньої нескінченної енергії є перетворення (синтез) водню на гелій.

 

Восени 1941 року під час роботи над створенням першого ядерного реактора фізик Енріко Фермі поділився зі своїм колегою Едвардом Теллером ідеєю використання енергії розподілу ядер атомів для початку реакції термоядерного синтезу. А вже 1942 року Теллер під час обговорення проєкту майбутньої ядерної бомби озвучив ідею створення бомби «Супер», яка гіпотетично могла бути в сотні тисяч разів потужніша, ніж іще не розроблена ядерна зброя, заснована на реакції розподілу.

 

Теллер не залишав цю ідею навіть після того, як ядерні бомби були скинуті на Хіросіму й Нагасакі, і весь світ побачив їхню руйнівну дію. Дуже багато вчених повстали тоді проти самої думки про створення зброї, в тисячі разів потужнішої, ніж атомні бомби, і здатної просто знищити нашу планету. Проте інші вчені стверджували, що винайдення подібної зброї є неминучим розвитком подій, тому краще зробити це першими, ніж чекати, коли її створять ймовірні супротивники.

 

Суперечки тривали доти, поки в серпні 1949 року Радянський Союз не підірвав атомну бомбу власного виробництва. У результаті тривалих дебатів західних аналітиків президент США Гаррі Трумен ухвалив рішення запустити програму розробки термоядерної бомби.

 

Початкові спроби здавалися абсолютно нездійсненними. Тепла, виділеного ядерною бомбою під час вибуху, виявилося недостатньо для запуску термоядерної реакції, і деякий час багато вчених сподівалися, що створити термоядерну зброю неможливо.

 

У 1951 році після багатьох років безплідної праці над створенням «Супера» польський математик-емігрант Станіслав Улам подав революційну ідею, на основі якої була вперше сконструйована працездатна термоядерна бомба. Ця ідея пізніше отримала назву «принцип ступінчастої імплозії» і полягала в тому, що початок термоядерної реакції досягався не за рахунок температури ядерного вибуху, а за рахунок виділення радіації.

 

1 листопада 1952 року термоядерний пристрій Теллера—Улама було успішно випробувано на острові атолу Еніветак. Його потужність склала 10,4 мегатонни — що у понад 450 разів потужніше, ніж скинута на Нагасакі атомна бомба. Перша воднева бомба (так термоядерну бомбу назвали через те, що в основі її дії лежала реакція злиття легких ядер водню) була надто важкою та надто складною, щоб її можна було використовувати на практиці як зброю.

 

Тим часом у Радянському Союзі вчені Андрій Сахаров і Віталій Гінзбург ще 1949 року (до того, як було випробувано першу радянську ядерну бомбу) розробили власну термоядерну конструкцію «Слойка». У ній матеріал реакції розподілу шарами чергувався з термоядерним паливом. Примітно, що Теллер розглядав подібну конструкцію ще в 1946 році й навіть дав їй кодову назву «Будильник» (щоб «пробудити» дослідження з розробки «Супера»), проте зрештою вирішив, що ідея безперспективна і не вартує витрачених зусиль.

 

Хоча «Слойка» за теоретичними розрахунками була в десятки разів менш потужною, ніж зброя, яку розробляли американці, радянські фізики розвинули цю концепцію і в серпні 1953 року успішно випробували першу практично застосовну водневу бомбу. У результаті цих випробувань було доведено, що потужність термоядерного вибухового пристрою, на відміну від атомного, обмежена лише кількістю використовуваного для його створення матеріалу, що дозволяє створювати бомби практично будь-якої потужності.

 

У американців першу водневу бомбу, яка отримала назву «Креветка», було підірвано лише 1 березня 1954 року. Вона залишається найпотужнішим ядерним пристроєм, коли-небудь підірваним Сполученими Штатами.

 

У відповідь на це 1956 року в СРСР почалася розробка надпотужної бомби. У результаті 30 жовтня 1961 року створений спеціально для випробувань літак Ту-95В скинув на ядерний полігон «Сухий ніс» на заполярному острові Нова Земля «Цар-бомбу» — найпотужніший вибуховий пристрій за всю історію людства.

 

Після вибуху на висоті близько 4 кілометрів над землею утворилася вогненна куля діаметром 8 кілометрів. Відбита від земної поверхні ударна хвиля «підтисла» її знизу, не давши їй доторкнутися землі. Спалах помітили на відстані понад 1000 кілометрів — його спостерігали в Норвегії, Гренландії та на Алясці.

 

Ядерний гриб заввишки 67 кілометрів було видно за 800 кілометрів від місця вибуху. Вибухова хвиля тричі обігнула земну кулю, у селищі на острові Діксон, розташованому за 780 кілометрів від вибуху, вибило всі шибки у вікнах, а в радіусі 100 кілометрів все живе просто випарувалося.

 

При цьому, на відміну від ядерної, термоядерна бомба не спричинила значного радіоактивного забруднення — випробувачі з’явилися на місці вибуху за 2 години, і рівень радіації не становив для них небезпеки.

 

На щастя, на цьому шалена гонитва зі створення надпотужних термоядерних бомб завершилася. У 1963 році було підписано Договір про заборону випробувань ядерної зброї в атмосфері, космічному просторі та під водою.

 

Проте надалі власна термоядерна зброя з’явилася у Великої Британії, Китаю, Франції, Індії, Ізраїлю та Північної Кореї. Наразі сумарної потужності всіх ядерних і термоядерних бомб вистачить на те, щоб повністю знищити нашу планету, перетворивши її на купу каміння, що літає в космічному просторі.

 

До речі, існує версія, що пояс астероїдів, розташований між орбітами Марса і Юпітера, з’явився саме в результаті розвитку подій на планеті, цивілізація якої теж доросла до термоядерної зброї, а потім знищила себе. Залишається лише сподіватися, що у жителів Землі вистачить здорового глузду не припуститися такої помилки.

 

Примітно, що на відміну від реакції розподілу ядер атомів, що знайшла своє застосування у мирному житті (атомні електростанції, які за належних заходів безпеки на сьогодні є найбільш екологічно чистою енергетикою на планеті), реакцію злиття ядер атомів поки що так і не вдалося застосувати в мирних цілях, хоча ідея використовувати термоядерний синтез як джерело енергії прозвучала ще на початку 1950-х років.

 

Головною проблемою і водночас головною перевагою термоядерної реакції є її нездатність здійснюватися самостійно, без зовнішнього впливу. Позитивний момент полягає у тому, що за будь-якого збою реакція просто припиняється, а не призводить до катастрофи, як при реакціях ядерного розподілу. Проблема полягає в тому, що в земних умовах дуже складно створити «штучне сонце».

 

Для утримання «киплячого бульйону» з атомів — плазми — в 1957 році було придумано спеціальну установку у формі величезного бублика, по-науковому — тороїдальну камеру з магнітними котушками, або скорочено — токамак. Однак до цього дня нікому не вдалося підтримувати процес досить довгий час, щоб виробленої енергії було більше, ніж витраченої на запуск реакції.

 

На сьогодні у розробці технологій термоядерного синтезу далі за всіх просунулися вчені з Китаю, яким вдалося підтримувати хмару розігрітої майже до 50 мільйонів градусів плазми протягом 102 секунд. За прогнозами фахівців, перші промислові термоядерні реактори з’являться не раніше, ніж за десять років. Хай там як, на високоефективну, безпечну та екологічно чисту термоядерну енергетику покладаються великі надії.

Перший відеомагнітофон і власник компанії Ampex

Відеомагнітофони Ampex VR-900 (вгорі) та пара FR-1400 (знизу) записують зображення Землі з поверхні Місяця

Перший відеомагнітофон для домашнього використання Loewe Opta Optacord 500

Перший масовий відеомагнітофон Sony CV-2000 у комплекті з камерою

Відеокасети формату Betamax та VHS

Відеомагнітофон JVC формату VHS

Революція в індустрії мовлення

Одного з найуспішніших виконавців в історії США Бінґа Кросбі, чий різдвяний шлягер White Christmas навіть потрапив до Книги рекордів Гіннеса як найбільш продаваний сингл усіх часів, часто запрошували на радіо. І його дуже дратував факт, що одного дня доводилося робити дві однакові передачі: окремо для жителів західного та східного узбережжя. Тому він усіма силами сприяв впровадженню систем попереднього запису радіопрограм, щоб не виконувати пісні у прямому ефірі.

 

І допомогла йому в цьому компанія Ampex. Ця компанія у роки Другої світової війни працювала над випуском електродвигунів для потреб американської армії, а з настанням мирного часу, коли попит на електромотори різко впав, шукала нові напрямки діяльності. Дехто на ім’я Джон Маллін поділився з Ampex привезеними з війни двома німецькими котушковими магнітофонами Ton S. b1, розробленими компанією AEG, і 50 котушками з ПВХ-плівкою, розробленими компанією IG Farben (підрозділ BASF).

 

Ampex одразу оцінила перспективи використання магнітної стрічки для запису звуку та вирішила перепрофілювати діяльність своєї компанії саме у цьому напрямі. Взявши за основу німецьку розробку, компанія вирішила будь-що перевершити за якістю оригінал, зберігши при цьому всі його головні переваги. До кінця серпня 1947 року було створено перший демонстраційний прототип магнітофона Ampex, який одержав позначення Model 200A.

 

Оскільки німецьких котушок у Малліна було порівняно небагато, інженери Ampex були обмежені в тестуванні своєї розробки. Однак вихід був знайдений: два американські виробники (Audio Devices і 3M) за клопотанням того ж Кросбі надали Ampex продукцію власного виробництва. У результаті американські магнітні стрічки навіть перевершували за якістю німецькі.

 

Після демонстрації Ampex отримала замовлення на 20 екземплярів магнітофонів вартістю 7500 доларів кожен — що приблизно втричі дорожче за новий легковий автомобіль! Звісно, таке обладнання могли собі дозволити лише великі радіостанції, такі як CBS, яка і стала першою великою мережею, що регулярно транслювала записані на магнітну стрічку матеріали, зокрема і шоу Кросбі.

 

Поява Ampex 200А стала революційною зміною для індустрії радіомовлення, забезпечуючи помітно кращу якість звуку, ніж транскрипційні диски, які на той час широко застосовувалися для запису радіоефіру. Магнітофони були простішими в експлуатації та використовували як носій запису магнітну стрічку, запис з якої можна було стерти та повторно застосовувати її багато разів.

 

До речі, Лес Пол, друг Кросбі та постійний гість його шоу, теж отримав ранній зразок магнітофона і згодом винайшов технологію накладання запису. Для цього він помістив додаткову головку відтворення, розташовану перед основним блоком головок стирання, запису та відтворення. Завдяки цьому Полу вдавалося зіграти одночасно з раніше записаним треком (наприклад, заспівати під заздалегідь записану музику). У результаті з двох записів виходив один новий трек.

 

1952 року до Ampex звернувся кінопродюсер Майк Тодд, який хотів розробити високоякісну звукову систему для кіно з використанням звуку, записаного на магнітній стрічці. Результатом цієї спільної роботи став формат Todd-AO, за участь у розробці якого 1960 року Американська кіноакадемія нагородила Ampex Оскаром.

 

Натхненні успіхом інженери Ampex вирішили розробити пристрій, за допомогою якого на магнітну стрічку можна було б записувати не тільки звук, але й зображення. Спочатку реалізувати цю ідею планувалося за рахунок додаткових доріжок для запису на магнітній стрічці. Проте величезні витрати магнітної стрічки (рулону діаметром 43 см вистачало лише на чотири хвилини відео) та нестійкість запису не дозволили проєкту вийти за межі лабораторії.

 

У 1953 році Ampex винайшла поперечно-рядковий запис, коли обертова головка працює зі стрічкою при відносно невисокій швидкості подачі. Так з’явився Mark I — перший у світі відеомагнітофон, покладений в основу серійної моделі Ampex VRX-1000, випуск якої розпочався 1955 року. До речі, у розробці відеомагнітофона взяв безпосередню участь Рей Долбі — людина, на честь якої названо різні формати стереозвучання.

 

Як і у випадку з аудіозаписом, компанія Ampex не була винахідником технології відеозапису, але її машини включали ключові покращення та стали стандартом у телевізійних студіях на довгі роки. Головною перевагою був спосіб похило-рядкового відеозапису на 2-дюймову стрічку чотирма обертальними головками. За створення видеомагнітофона VR-1000 у 1957 році Ampex була удостоєна премії Emmy.

 

У 1959 японська компанія Toshiba представила новий метод запису, відомий як спіральне сканування. Того ж року ця фірма випустила перший комерційний відеомагнітофон зі спіральною розгорткою. А 1963 року компанія Philips запропонувала свій відеорекордер — EL3400. Водночас Sony випустила на ринок свою модель PV-100 — перший котушковий відеомагнітофон, призначений для бізнесу, медицини, авіакомпаній та освітніх закладів.

 

Що стосується побутових відеомагнітофонів, то за першість у цьому сперечаються одразу кілька компаній. Німці вважають, що першим, безперечно, був Loewe Opta Optacord 500, представлений на Берлінській виставці у 1961 році. Хоча німецькі інженери і намагалися зробити його максимально простим, він все одно мав вигляд візка на колесах, на якому був установлений пристрій, схожий на сучасний офісний лазерний принтер, а поверх нього розташовувався ще й телевізор.

 

Англійці вважають першим домашнім відеомагнітофоном Telcan (скорочення від Television in a Can — «телебачення у банці»), продемонстрований у студії Бі-бі-сі в Лондоні 24 червня 1963 року. Реалізований у цьому пристрої принцип запису нерухомими головками на магнітну стрічку, що рухалася з великою швидкістю, забезпечував вкрай низьку надійність, тому значного поширення модель не набула.

 

В Японії на звання першого домашнього відеомагнітофона претендендує Sony CV-2000, який з’явився у продажу в 1965 році. Ця модель спочатку призначалася для побутового використання, про що свідчила її назва: CV —це скорочення від Consumer Video («споживче відео»). Запропоновану схему вперше повністю зібрали на транзисторах. Звичайна версія продавалася за ціною 695 доларів США, а портативний варіант у міцнішому корпусі — за 730 доларів.

 

Такі ціни були вдесятеро нижчими, ніж у інших компаній, які постачали на ринок подібні апарати. Відеомагнітофони активно купували не лише сім’ї, а й навчальні заклади. Додатково до пристрою Sony продавала відеокамеру, мікрофон і штатив.

 

Не зупинялися на досягнутому й інженери Ampex. У 1962 році вони представили рекордер VR-1500, спеціально створений для застосування у відеосистемах із замкнутим контуром (CCTV). У 1963 році Ampex розробила систему EDITEC, яка давала змогу здійснювати покадрове редагування стрічки. А в 1970 році була випущена Terabit Memory — цифрова система зберігання даних великої ємності, що використовувала технологію відеозапису. Протягом 1966-1967 років рекордери Ampex FR-900 використовувалися для відеозапису перших зображень Землі з місячної орбіти в рамках програми Lunar Orbiter.

 

У жовтні 1969 Sony анонсувала перші відеокасети власного формату U-matic. Вони надійшли у продаж за два роки. Спочатку орієнтований на ринок побутової апаратури U-matic не набув там великої популярності через високу ціну відеомагнітофонів. Однак їх активно розкуповували компанії, телестудії та навчальні заклади, унаслідок чого Sony максимум реклами стала приділяти професійному та освітньому секторам.

 

І якщо U-matic став основним форматом телебачення, то європейський ринок домашнього відео, навчальних програм та бізнес-презентацій захопив формат VCR (від Video Cassette Recording — запис на відеокасету), який просували фірми Philips і Grundig.

 

Касети VCR мали вигляд сплюсненого кубика з тривалістю запису 30, 45 або 60 хвилин. Така мала тривалість завадила поширенню формату, оскільки на касету не поміщалися повнометражні художні фільми. Цю проблему спробували вирішити 1977 року модифікацією до VCR-LP (до 145 хвилин запису), а 1979 року до SVR (до 240 хвилин запису). Але на той момент світовий ринок уже захопила апаратура прогресивніших форматів. Хоча VCR і пішов в історію, цією абревіатурою стали називати всі касетні відеомагнітофони (Video Cassette Recorder).

 

До середини 1970-х, коли відеотехніка вже набула достатнього поширення, виникла проблема з обміном записами: у різних апаратах використовувалися різні формати відеокасет. Стало актуальним питання щодо створення єдиного формату носіїв для побутової техніки. І якщо для аудіоапаратури вже повсюдно використовували компакт-касету, запропоновану Philips ще в 1963 році, то для відеомагнітофонів єдиної касети поки не існувало.

 

Sony, прагнучи захопити світовий ринок домашнього відео, 1974 року представила формат Beta, або Betamax. Водночас у JVC — дочірньої компанії фірми Matsushita, яка також володіла торговими марками National і Panasonic, — був власний формат VHS (від Video Home System — домашня відеосистема). У Sony вже практично святкували перемогу, домовившись про єдиний формат з такими виробниками, як Toshiba та Sanyo, та заповнивши прилавки магазинів у всьому світі апаратурою формату Betamax.

 

Однак відеомагнітофони JVC формату VHS, що поступалися за якістю і з’явилися значно пізніше (влітку 1977 року), в результаті перемогли. Річ у тім, що у формату VHS були відсутні ліцензійні обмеження, а головне — тривалість стандартної VHS-касети вдвічі перевищувала тривалість касети Betamax.

 

Те, що тривалість важлива, згодом продемонстрували подовжені касети (Е-195 та Е-240 в Європі, а також T-160 та T-180 в Америці). Фірма BASF випускала також касети Е-300. Тому компактніший порівняно з VHS розмір касети Betamax не пішов на користь формату, бо вміщував меншу кількість стрічки.

 

До того ж фахівці Sony вважали, що споживач не поскупиться на кращу якість зображення. Однак насправді покупці воліли купувати дешевші магнітофони формату VHS. А коли японські та корейські фірми (наприклад, Samsung, GoldStar, Funai або Orion) випустили на ринок відеоплеєри, серйозно знизивши ціни на відеоапаратуру, перспективи Betamax як головного формату домашнього відео взагалі зникли.

 

На ринку США до 1987 року відеотехніка формату VHS складала 90% пристроїв. І тоді Sony сама почала випускати техніку VHS. Формально програш вона не визнала, виробляючи відеомагнітофони Betamax до 2002 року, а в комбінованому пристрої з DVD-приводом — до 2016 року.

 

Власний єдиний формат відеокасет спробували запровадити і європейські виробники Philips та Grundig: замість застарілого формату VCR вони популяризували формат Video 2000 або Video Compact Cassette (VCC, компактна відеокасета). Але оскільки на практиці розмір таких «компактних» касет був більшим, ніж у касет VHS, то шансів перемогти у VCC практично не було. 1988 року європейські виробники визнали переваги VHS і почали робити відеотехніку цього формату.

 

Попри появу оптичних дисків, які ще у другій половині 1980-х років поступово замінюватили касети з магнітними стрічками, 1990-ті стали справжньою епохою VHS. CD-диски, які потіснили аудіокасети, не мали достатнього об’єму для запису тривалого відео, тому відеокасети ще якийсь час продовжували панувати.

 

Однак поява формату DVD катастрофічно швидко підірвала ринок відеокасет. Прокат DVD у США вперше перевищив прокат VHS у червні 2003 року. Цифрова якість, що не втрачалася під час перезапису, змусила багатьох розлучитися з відеомагнітофонами. У країнах, де авторським правом нехтували, почалися продажі піратських DVD з 10–12 фільмами на диску — таку кількість відео не могла вмістити жодна відеокасета.

 

Одним із останніх виробників відеомагнітофонів залишалася фірма Funai. Але коли щорічний продаж цих апаратів скоротився з 15 мільйонів до 750 тисяч, і ця компанія замислилася про зупинення випуску, що й сталося у липні 2016 року.

 

І хоча з розвитком цифрових технологій відеомагнітофони пішли в минуле, їхній внесок у поширення та збереження інформації, розваги та освіту залишається значним.

Винахідник технології отримання штучних алмазів Трейсі Хол

Десятидоларова облігація за створення алмазу

У 1772 році французький дослідник природи Антуан Лавуазьє, придбавши кілька алмазів власним коштом, розжарив їх до температури горіння, після чого визначив склад отриманого в результаті цього газу і таким чином довів, що вони складаються з вуглецю. Відкриття надихнуло багатьох дослідників на пошуки способу створення алмазів із дешевих форм вуглецю: сажі, деревного вугілля, коксу, графіту.

 

Проте минуло чимало часу, перш ніж було заявлено про перші успіхи. У 1879 році Джеймс Баллантайн Ханней повідомив про те, що, нагріваючи суміш з деревного вугілля і порошкоподібного заліза в полум’яній печі до 3500 градусів Цельсія, а потім швидко охолодивши розплавлену суміш зануренням у воду, йому вдалося створити досить високий тиск, необхідний для перетворення вуглецю на алмаз.

 

Після цього в 1893 році Фердинанд Фредерік Анрі Муассан застосував для аналогічної процедури свою нещодавно розроблену електродугову піч, у якій електрична дуга виникала між вуглецевими стрижнями всередині вапняних блоків, і також заявив про успіх.

 

Багато інших учених намагалися повторити такий експеримент, і деякі навіть оголошували про позитивний результат. Але після ретельного аналізу всіх подібних заяв так і не вдалося підтвердити жодної з них. Найбільш докладно свої кроки у цьому напрямку описав англійський інженер Чарльз Алджернон Парсонс, відомий як винахідник парової турбіни. Він витратив близько 40 років і значну частину своїх статків, намагаючись відтворити експерименти Муассана та Ханнея, а також вигадував власні процеси.

 

Усі отримані зразки він зберігав для подальшого аналізу незалежною стороною. Однак Парсонсу довелося визнати, що досі нікому так і не вдалося отримати синтетичні алмази. А те, що було отримано в результаті експериментів, — лише штучно створений напівдорогоцінний мінерал шпінель.

 

Попри всі старання, отримання штучних алмазів залишалося недосяжною мрією.

 

У 1939 році вчений Овсій Лейпунський вирахував необхідні для успішного результату дослідів величини тиску: не менше 60 тисяч атмосфер. Утім, світове визнання його заслуг відбулося лише 1972 року, коли Лейпунському було видано диплом на відкриття закономірності утворення алмазів, датований серпнем 1939 року.

 

Тим часом у 1940-х роках почалися систематичні дослідження з вирощування каменів. Із цією метою було обрано дві найбільш перспективні технології: створення алмазів під високим тиском за високої температури (high-pressure high-temperature — HPHT) та методом хімічного осадження з пари (chemical vapor deposition — CVD). До речі, ці два методи — CVD та HPHT — досі є основними у виробництві синтетичних алмазів.

 

У лютому 1953 року в Стокгольмі найбільша компанія з виробництва електрообладнання ASEA використала громіздкий апарат з розділеною сферою, розроблений Бальцаром фон Платеном і Андерсом Кемпе для створення та підтримання тиску приблизно 8,4 гПа (майже 83 тисячі атмосфер) та температури 2400 градусів за Цельсієм.

 

За допомогою цього пристрою було вперше отримано кілька невеликих алмазів. Проте проєкт був настільки засекречений, що жодного документального підтвердження немає. Отже, ця дата також не стала днем народження технології синтезу алмазів (так, сьогодні недостатньо просто винайти чи створити щось — треба неодмінно розповісти про це світові, щоб отримати визнання свого авторства).

 

Натомість наступного року, 16 грудня 1954 року, американський хімік Трейсі Холл, який працював у компанії General Electric, уперше у світі здійснив документально засвідчений синтез алмазу, використовуючи обладнання власної розробки.

 

Експеримент був виконаний при тиску 70 000 атмосфер, за температури 1600 °C і тривав близько 38 хвилин. У сконструйованому Холлом пресі використовувався надтвердий сплав на основі карбіду вольфраму, кобальту та високоміцні сталі. У спеціальному пірофілітовому контейнері графіт розчинявся в розплавленому нікелі, кобальті та залізі. Ці метали діяли як каталізатор, прискорюючи перетворення вуглецю на алмаз.

 

Пізніше колегам Холла вдалося повторити його роботу, у результаті чого було створено цілу індустрію з виробництва алмазів та інших надміцних суперматеріалів. Примітно, що сам винахідник отримав як нагороду за свою розробку десятидоларову облігацію казначейства США. «Нічогенькі гроші!» — іронізував згодом учений.

 

У 1955 році Холл залишив General Electric, а ще через три роки розробив новий апарат для синтезу алмазів — тетраедричний прес з чотирма ковадлами — щоб не порушувати наказу про секретність Міністерства торгівлі США щодо патентних заявок. Іншими словами, він буквально винайшов процес заново.

 

Перші синтетичні алмази ювелірної якості було отримано 1970 року. І хоча штучні дорогоцінні камені хімічно ідентичні природним, їх фізичні властивості не однакові, тому фахівці завжди відрізняють синтетичні кристали.

 

Що стосується методу отримання алмазів хімічним осадженням із парової фази (CVD), то ця технологія, розроблена ще з 1950-х років, використовується для створення надміцного алмазного покриття на поверхнях різальних інструментів, у медичному устаткуванні, електроніці та ювелірній індустрії.

 

Нині синтетичні камені широко використовуються в різних сферах діяльності людини. Близько 97 % алмазів, які застосовуються у промисловості, створені штучно. А це інструменти для різання, буріння та полірування, матеріали для напівпровідників, лазерів та оптичних компонентів. Ювелірна промисловість надає споживачам доступ до діамантів високої якості за доступнішою ціною. Іще без штучних алмазів неможливо уявити космічні розробки, де ці кристали потрібні через свою міцність і унікальні властивості.

 

З розвитком технологій та наукових досліджень синтетичні алмази продовжуватимуть знаходити нові застосування та розширювати свої можливості у різних галузях.

Перші сонячні батареї

Сучасні сонячні панелі на даху приватного будинку

Сонячна термальна станція в іспанській Севільї

Сонячні батареї для космічних апаратів та земних електростанцій

1839 року 19-річний француз Едмон Беккерель відкрив здатність деяких матеріалів створювати електричний заряд під впливом світла. Йому вдалося побудувати перший у світі фотоелектричний елемент у лабораторії свого батька. І хоча перші сонячні панелі були занадто неефективні навіть для простих електричних пристроїв, їх використовували як інструмент вимірювання світла.

 

У лютому 1873 року англійський інженер-електрик Віллоубі Сміт опублікував статтю «Вплив світла на селен під час проходження електричного струму» у випуску журналу Nature. А 1883 року американець Чарльз Фріттс побудував перший твердотільний фотоелектричний елемент, покривши напівпровідниковий селен тонким шаром золота.

 

Винахідник описував своє творіння як «безперервну, постійну і значну силу не тільки під впливом сонячного світла, а й тьмяного, розсіяного денного світла» і навіть передбачав, що сонячні батареї незабаром замінять електростанції. Утім, це було явним перебільшенням — коефіцієнт корисної дії такої сонячної панелі не перевищував 1 %, тому її ефективність була надто малою.

 

1905 року, коли Альберт Ейнштейн зміг пояснити явище фотоефекту, з’явилася надія на створення більш продуктивних сонячних батарей, але революції в цьому напрямі не відбулося. Лише 1941 року американець Рассел Ол, працюючи над дослідженнями, що привели до створення транзистора, запатентував конструкцію сонячного елемента, яка згодом стала основою ефективних сонячних панелей.

 

А з’явилися такі панелі в 1954 році — саме тоді фахівці компанії Bell Labs Келвін Саутер Фуллер, Деріл Чапін і Джеральд Пірсон створили перші практично застосовні сонячні батареї на основі кремнію. Ефективність їх винаходу становила 6 %.

 

Під час презентації батарея успішно служила джерелом енергії для іграшкового «оглядового колеса» та радіопередавача. Першим по-справжньому серйозним застосуванням сонячних елементів, після якого вони набули загальної популярності, було їх установлення на американський супутник «Авангард-1», запущений 17 березня 1958 року. Лише за кілька місяців, 15 травня, в СРСР також було запущено «Супутник-3», живлення якого на орбіті здійснювалося від сонячних батарей.

 

Відтоді сонячні елементи (у космосі використовуються фотопанелі з арсеніду галію) є одним із основних способів отримання електроенергії на космічних апаратах. Вони працюють довгий час без витрат будь-яких матеріалів. При цьому вони значно екологічніші та безпечніші, ніж ядерні або радіоізотопні джерела енергії. Як наслідок, усі сучасні космічні апарати, які ми можемо бачити, наприклад, у різних телепередачах, обов’язково оснащені сонячними панелями.

 

Однак сонячні батареї вирішують проблему енергозабезпечення в космосі далеко не завжди: при польотах на великій відстані від Сонця їхня ефективність неабияк знижується через ослаблення потоку сонячної енергії. Наприклад, на Марсі потужність сонячних батарей вдвічі менша, ніж на Землі, а пилові бурі на цій планеті ще більше знижують їхню ефективність. А ось на близьких до Сонця планетах потужність сонячних батарей, навпаки, значно зростає: у районі Венери — в 2 рази, а в районі Меркурія — в 6 разів.

 

Довгий час сферою застосування сонячних батарей майже виключно залишалася космічна галузь. Це пов’язано з тим, що космічні програми допускають дуже високу вартість тих чи інших компонентів (до речі, досить часто різні частини космічних апаратів виготовляються з чистого золота, що можна помітити на численних фотографіях супутників і зондів), а сонячні елементи як енергоносії завжди мали найкраще співвідношення потужності до ваги. Водночас для наземного використання тривалий час вони залишалися надто дорогими.

 

Нафтова криза 1973 року змусила людей вкладати гроші у пошуки альтернативних джерел енергії, серед яких були й сонячні батареї. Завдяки цьому вдалося знизити їхню вартість у 5 разів — зі 100 доларів за ват до 20.

 

У наступні десятиліття сонячна енергетика поступово стала прибутковою промисловою галуззю. У 1982 році в Каліфорнії компанія ARCO Solar реалізувала проєкт першої сонячної електростанції потужністю 1 мегават, а в 1986 році випустила перший комерційний тонкоплівковий сонячний модуль з аморфного кремнію. У 1990-ті роки технологія таких модулів розвинулася настільки, що досягла ефективності сонячних батарей у 15,9 %, а тепер цей показник становить уже 22 %.

 

У 1998 році винахідник Субенду Гуха створив перший гнучкий тонкоплівковий фотоелектричний модуль, який він назвав дранкою. Завдяки цьому винаходу стало можливим інтегрувати сонячні панелі у конструкцію автомобілів, літаків та складних архітектурних споруд.

 

До початку XXI століття генерація всіх сонячних електростанцій у світі перевалила за 1 гігават, і це значення з кожним роком безперервно збільшувалося на тлі проблем екології, що загострилися як ніколи. Проєкти, пов’язані з сонячною енергетикою, почали фінансувати уряди багатьох розвинених країн, що дало потужний поштовх подальшому розвитку та популяризації сонячних батарей.

 

У період із 2008 до 2013 року кількість установників сонячних панелей значно зросла. При цьому такі батареї далеко не завжди встановлювалися в регіонах зі стабільною сонячною погодою.

 

Для вирішення таких проблем, як затіненість, забруднення або засніженість електрогенерувальних панелей, були створені мікроінвертори — пристрої, які дають змогу уникнути загального зменшення генерації електроенергії в умовах непостійної або недостатньої освітленості. З’явилися інтелектуальні модулі оптимізації потужності, які збільшили ефективність сонячних електрогенерувальних систем.

 

Як це зазвичай буває з будь-якою технологією, що масовішими ставали сонячні батареї, то більше знижувалася їхня вартість. Сьогодні ці панелі вже давно перестали бути технічною дивиною з галузі космічних технологій. Вони доступні середньому покупцеві та прості в експлуатації. І йдеться не тільки про стаціонарні сонячні панелі. Невеликі складні елементи у поєднанні з компактними зарядними станціями є джерелом електроенергії практично в будь-якому місці з достатнім освітленням — під час відпочинку на природі, в геологічних експедиціях та походах.

 

Слід зазначити, що електрогенерувальні сонячні елементи — це не єдиний спосіб використання сонячної енергії. Також існують сонячні колектори, які, до речі, часто плутають із сонячними батареями. На відміну від фотоелектричних елементів, що виробляють електрику, колектори лише збирають теплову енергію сонця та передають її для нагрівання матеріалу-теплоносію. Звісно, подібна технологія далеко не нова.

 

По суті, бак із водою на літньому душі, що нагрівається під палючим сонцем, є прикладом найпростішого сонячного колектора. При цьому з давніх-давен відомо, що пофарбована в чорний колір поверхня нагрівається сильніше, ніж світла, а значить, темний бак з водою прогріється набагато швидше, ніж світлий.

 

У 1909 році американець Вільям Бейлі створив перший прообраз сучасного плоского сонячного колектора, який встановлювався окремо від бака для води та передавав тепло мідними трубками. Індустрія сонячних колекторів процвітала в південних штатах США до початку Другої світової війни, коли було прийнято закон про нормування витрат міді, необхідної для потреб армії, що призвело до різкого занепаду ринку колекторів. Не відновилося їх виробництво і після закінчення війни, а для нагрівання води почали використовувати електрику та газ, ціни на які в середині 1940-х у США значно знизилися.

 

Проте технологія не була забута. У 1950-х роках в Ізраїлі, де відчувалася нестача енергоносіїв і навіть було введено заборону на нагрівання води у вечірній та нічний час, сонячні системи підігріву отримали своє друге народження. Уже до 1967 року 20 % жителів цієї країни користувалися сонячними колекторами. А нафтова криза 1973 року лише підвищила попит на них. До речі, сьогодні 85 % домогосподарств в Ізраїлі використовують сонячні колектори. Вироблена ними енергія складає 3 % від енергоспоживання країни та економить 2 мільйони барелів нафти на рік.

 

Сонячні колектори використовують не тільки для гарячого водопостачання, але і для безпосереднього виробництва електроенергії. Сонячні термальні електростанції, ідею яких ще в 1930-ті роки висунув інженер Микола Ліницький, — це поле з установленими дзеркалами-геліостатами, які відбивають промені сонця на поверхню центрального приймача, розташованого на вежі в центрі поля. Приймач — це звичайний паровий котел, пара з якого трубами подається в машинний зал, де обертає турбіну електрогенератора.

 

Перша така сонячна вежа була побудована у Каліфорнії 1980 року. На сьогоднішній день термальні електростанції побудовані в багатьох країнах у всьому світі, а найбільші з них експлуатуються в США, Південній Африці, Китаї, Індії, Ізраїлі. З розвитком сонячної енергетики та збільшенням інтересу до відновлюваних джерел енергії кількість подібних станцій з кожним роком зростає.

 

Сонячна енергетика має великий потенціал задоволення енергетичних потреб людства у майбутньому, тому її розвиток продовжить прискорюватися найближчими роками. Якщо ще кілька десятиліть тому мікрокалькулятори з фотоелементами, що дають змогу роками не змінювати батарейку, здавалися дивиною, то сьогодні вже нікого не здивувати безпілотними автомобілями та літаками, які пересуваються за допомогою однієї лише сонячної енергії.

 

На відміну від викопних видів палива, сонячна енергія доступна повсюдно і з часом не вичерпується. Вона не спричиняє шкідливих забруднень і є, мабуть, найбільш екологічно чистим джерелом електроенергії. А зниження вартості сонячних електростанцій та підвищення їхньої ефективності за рахунок розвитку технологій роблять сонячну енергію все більш конкурентоспроможною порівняно з традиційними джерелами енергії.

 

Обнінська АЕС

«Атом для миру»

Як відомо, розробки в галузі реакції розподілу ядер атомів у роки Другої світової війни завершилися створенням Сполученими Штатами ядерної зброї, яка у серпні 1945 року була застосована проти японських міст Хіросіми та Нагасакі. Одночасно з цією подією в США був випущений кишеньковий довідник «Атомний вік», який був першим поширеним серед громадян країни звітом щодо використання ядерної енергії. У ньому обговорювалися варіанти її мирного застосування як альтернативи викопним видам палива.

 

А лауреат Нобелівської премії Ґлен Сіборґ, який пізніше очолив Комісію з атомної енергії США, навіть анонсував появу в майбутньому шатлів Земля — Місяць на ядерній енергії, штучні серця з довічним елементом живлення від ядерної батареї, басейни з плутонієвим підігрівом для аквалангістів і багато чого іншого. Одночасно зі Сполученими Штатами розвиток ядерної енергетики та дослідження у цій галузі розпочали Велика Британія, Канада та СРСР.

 

Уперше отримати електрику за допомогою ядерного реактора вдалося 20 грудня 1951 під час експерименту на станції EBR-I у штаті Айдахо. А в 1953 році американський президент Двайт Айзенгавер в Організації Об’єднаних Націй виголосив промову «Атом для миру», у якій наголосив на необхідності швидкого розвитку мирного використання ядерної енергії.

 

Проте перша діюча атомна електростанція з’явилася не в США, а в СРСР. 27 червня 1954 року Обнінська АЕС вперше у світі почала виробництво електроенергії для енергосистеми країни, виробляючи близько 5 мегават за допомогою ядерного реактора. Багато в чому це стало можливим завдяки тому, що будівництво станції здійснювали ті самі люди, які ще 25 грудня 1946 року запустили перший у Європі реактор Ф-1 із самопідтримувальною ланцюговою ядерною реакцією, тоді як у США подібні технології залишалися суворо засекреченими.

 

У відповідь на це в серпні того ж року в США було ухвалено закон про атомну енергію, який дозволив швидко розсекретити реакторну технологію Америки, тим самим стимулювавши розвиток ядерної енергетики в країні. Перша в США комерційна атомна електростанція розпочала свою роботу лише у грудні 1957 року.

 

На Першій Міжнародній науково-технічній конференції з мирного використання атомної енергії, яка проходила в серпні 1955 року в Женеві, було започатковано міжнародне співробітництво в галузі мирного атома. Це значно послабило завісу секретності над ядерними дослідженнями, що існувала з часів Другої світової війни.

 

1960-1970-ті роки стали справжнім розквітом для ядерної енергетики. Повсюдно будувалися нові й нові АЕС, енергоблоки яких виробляли дешеву та екологічно чисту електроенергію. В окремих випадках атомні електростанції мали подвійне призначення. Наприклад, 1972 року в Казахстані було запущено перший промисловий реактор на швидких нейтронах, потужність якого використовувалася як для виробництва електрики, так і для опріснення води з Каспійського моря.

 

Уведення ембарго на постачання нафти арабськими країнами у 1973 році призвело до стрибка цін на основні види палива, тому попит на ядерну енергію ще збільшився. Масове будівництво типових АЕС дозволило знизити їхню вартість, тому розвиток ядерної енергетики відбувався небаченими темпами. У 1980-х роках у світі в середньому кожні 17 днів запускався один новий ядерний реактор.

 

Однак ціни на природне паливо поступово знизилися, а попит на електроенергію стабілізувався. У зв’язку з цим потреба у нових атомних електростанціях скоротилася. 26 квітня 1986 року на Чорнобильській АЕС сталася найбільша в історії людства техногенна катастрофа — унаслідок вибуху на четвертому енергоблоці в довкілля було викинуто велику кількість радіоактивних речовин.

 

Хмара, що утворилася над палаючим реактором, рознесла різні радіоактивні матеріали на території великої частини Європи. Аварія призвела до загибелі десятків тисяч людей і негативно вплинула на здоров’я ще сотень тисяч. До того ж, щоб забруднена катастрофою територія повністю очистилася, потрібні сотні й тисячі років, оскільки для гарантованого розпаду радіоактивного елемента до безпечного рівня, як правило, потрібно десять періодів напіврозпаду. Для цезію-137 та стронцію-90 це означає 300 років, а для плутонію — понад 20 тисяч років!

 

Чорнобильська катастрофа відіграла велику роль у скороченні темпів будівництва нових АЕС у наступні роки. Під впливом цих подій Італія проголосувала проти ядерної енергетики на референдумі 1987 року, ставши першою країною, яка повністю відмовилася від цього виду енергії в 1990 році.

 

Проте чергове зростання цін на викопне паливо та побоювання з приводу викидів вуглекислого газу в атмосферу, що загострилися на початку 2000-х років, привели до так званого «ядерного ренесансу» — відродження ядерної енергетики. У цей час розпочалося будівництво нових ядерних реакторів третього покоління.

 

У 2011 році аварія на АЕС у Фукусімі знову посилила сумніви щодо ядерної безпеки, які вже існували раніше. Декілька країн, зокрема Німеччина, оголосили про повну відмову від виробництва атомної електроенергії. До 2012 року Всесвітня ядерна асоціація повідомила, що вона перебуває на найнижчому рівні з 1999 року.

 

Попри ці побоювання, останніми роками ядерній енергетиці приділяється дедалі більша увага. Доведено, що при дотриманні всіх необхідних заходів безпеки ядерні реактори є досить надійними та екологічними джерелами електроенергії, навіть у порівнянні з такими традиційно «зеленими» технологіями, як сонячна та вітрова, що забезпечують значно менш стабільну подачу електрики споживачам.

 

Відновленню інтересу до цього напряму також сприяла глобальна енергетична криза 2022 року. Країни почали скасовувати або відкладати поетапну відмову від ядерної енергії, приділяючи більше уваги новим технологіям, таким як малі модульні реактори.

 

Зрештою, погодьтеся, що автомобільні аварії — це привід робити автомобілі безпечнішими, а не відмовлятися від них повністю. Те саме з ядерною енергетикою: упровадження нових технологій, спрямованих на підвищення ефективності та безпеки цієї галузі, дасть змогу зробити навколишній світ більш комфортним та затишним.

 

Саме ядерна енергія може стати одним із вирішень проблеми впливу викопного палива на клімат нашої планети. У перспективі атомні електростанції зможуть не лише виробляти електрику, а й уловлювати вуглекислий газ, видаляючи його надлишки з атмосфери і знижуючи ризики парникового ефекту.

Творці першого штучного інтелекту: Тренчард Мор, Джон Маккарті, Марвін Мінскі, Олівер Селфрідж, Рей Соломонофф

Штучний інтелект, проблеми та ризики

Ще в давнину люди вигадували історії про штучних істот, яких майстри-ремісники наділили розумом. Наприклад, у грецькій міфології зроблений з бронзи гігант Талос охороняв острів Кріт, щодня здійснюючи по три обходи навколо острова та кидаючи валуни в кораблі загарбників.

 

У Середньовіччі ідею створення штучних людей — гомункулів, чи големів — активно вивчали алхіміки. Наприклад, вважалося, що з цією метою достатньо вставити в рот глиняної фігурки аркуш паперу з написаним на ньому ім’ям Бога.

 

Ближче до сьогодення ідея про штучних людей і розумні машини не давала спокою письменникам-фантастам. У їхніх творах вигадані істоти наділялися здатністю мислити і робити властиві людям дії: «Франкенштейн, або Сучасний Прометей» письменниці Мері Шеллі (1816 рік); «Едін, або По той бік гір» Семюела Батлера (1872); «R.U.R. (Россумські універсальні роботи)» Карела Чапека (1920). Утім, що й говорити, роботи зі штучним розумом і сьогодні є поширеною темою в науковій фантастиці.

 

Сама собою ідея штучного інтелекту базується на припущенні, що процес людського мислення можна механізувати, тобто звести до послідовності суто механічних дій. Вивченням цього питання з давніх часів займалися прогресивні вчені людства, і вже до першого тисячоліття до нашої ери китайські, індійські та грецькі філософи розробили методи так званої формальної дедукції. Їхні ідеї протягом століть розвивали такі мислителі, як Арістотель, Евклід, Аль-Хорезмі, Вільям Оккам, Дунс Скот.

 

Реалістичні людиноподібні механізми-автомати були збудовані майстрами кожної цивілізації. Найстарішими подібними виробами є священні статуї Стародавнього Єгипту та Греції. Віряни вважали, що майстер наділив ці фігури реальним розумом, здатним до мудрості та емоцій, і зверталися до них за допомогою у вирішенні своїх питань.

 

У XIII столітті іспанський філософ Раймунд Луллій розробив кілька логічних машин, призначених для здобуття знань. Під його впливом у XVII столітті філософи Ґотфрід Лейбніц, Томас Гоббс та Рене Декарт досліджували можливість зробити раціональне мислення систематичним, звівши це до науки, подібної до алгебри або геометрії. Сформульована цими вченими гіпотеза системи фізичних символів згодом стала керівною ідеєю в дослідженні штучного інтелекту.

 

У XX столітті вивчення математичної логіки забезпечило суттєвий прорив, завдяки якому стало можливим створення штучного інтелекту. Основи цього було закладено у роботах Буля і Фреге. Надалі ідею розвинули Рассел та Вайтгед в «Основах математики» 1913 року. А в 1920-х роках Давід Гільберт кинув виклик математикам, поставивши фундаментальне запитання: «Чи всі математичні міркування можуть бути формалізовані?». Відповіддю на його запитання стали доказ неповноти Ґеделя, машина Тюрінґа та лямбда-обчислення Черча — роботи видатних математиків того часу.

 

Ці праці довели, що насправді існують межі можливостей математичної логіки, але водночас у цих межах будь-яка форма математичного міркування може бути механізована. Іншими словами, механічний пристрій, який перетасовує такі прості символи, як 0 і 1, може імітувати будь-який мислительний процес математичного висновку. Ключовим відкриттям стала машина Тюрінґа — проста теоретична конструкція, яка відображає суть маніпулювання абстрактними символами.

 

Кульмінацією став винахід у 1940-х роках програмованого цифрового комп’ютера — машини, що ґрунтується на абстрактній сутності математичних міркувань. Цей пристрій та ідеї, покладені в його основу, надихнули групу вчених почати серйозно обговорювати ймовірність створення електронного мозку.

 

У 1950 році Алан Тюрінґ опублікував статтю «Обчислювальна техніка й інтелект», у якій він розмірковував про можливість розробки машин, які можуть мислити. Саме в цій статті публіці було представлено концепцію того, що наразі відома як тест Тюрінґа. Учений зазначав, що мисленню важко дати визначення.

 

Якщо машина здатна підтримувати діалог у листуванні (на той момент телетайпом), який не відрізняється від діалогу з людиною, можна стверджувати, що машина «думає». Ця спрощена версія проблеми дозволила Тюрінґу переконливо довести, що «машина, яка думає», принаймні правдоподібна, і в статті були наведені відповіді на всі найбільш поширені заперечення проти цього твердження.

 

Сфера дослідження штучного інтелекту була заснована як академічна дисципліна в 1956 році, після семінару, що відбувся в Дартмуті. Організаторами цього заходу були Марвін Мінскі, Джон Маккарті, Клод Шеннон та Натан Рочестер.

 

Основна мета семінару полягала в тому, щоб заглибитись у можливості створення машин, здатних імітувати людський інтелект, що ознаменувало початок цілеспрямованих досліджень у цьому напрямку. Учені мали намір перевірити твердження про те, що «кожен аспект навчання чи будь-яка інша особливість інтелекту може бути описана настільки точно, що можна створити машину для його моделювання».

 

На цьому ж семінарі був офіційно представлений сам термін «штучний інтелект», або ШІ (також поширене англійське позначення AI від Artificial intelligence).

Серед учасників були Рей Соломонофф, Олівер Селфрідж, Тренчард Мор, Артур Семюел, Аллен Ньюелл та Герберт А. Саймон, кожен із яких створив важливі програми протягом перших десятиліть досліджень ШІ.

 

Семінар у Дартмуті 1956 року став ключовим моментом, коли ШІ отримав своє ім’я, свою місію, свій перший великий успіх і своїх перших творців. Саме ця дата вважається офіційним народженням штучного інтелекту.

 

Восени того ж року відбулася ще одна подія, яку прийнято вважати початком так званої когнітивної революції — фундаментальних змін у психології, філософії, інформатиці та нейробіології. У Масачусетському технологічному інституті було проведено засідання Спеціальної групи з теорії інформації, на якому виникла ідея, що такі напрямки, як експериментальна психологія, теоретична лінгвістика та комп’ютерне моделювання когнітивних процесів — це різні частини єдиного цілого. Надалі ця гіпотеза здобула багаторазове підтвердження — результати, отримані у процесі досліджень в одній сфері, були актуальні й у всіх інших сферах науки, пов’язаних із моделюванням свідомості.

 

Когнітивний підхід дозволив дослідникам розглядати «уявні об’єкти», такі як ідеї, плани, цілі, факти чи спогади, які часто аналізуються з використанням символів високого рівня у функціональних мережах. Протягом наступних кількох десятиліть саме символічні ментальні об’єкти стали основним напрямком досліджень та фінансування ШІ.

 

Програми, розроблені у роки після Дартмутського семінару, для більшості людей стали просто дивовижними. Комп’ютери вирішували завдання з алгебри, доводили теореми з геометрії та вчилися говорити англійською. Тоді мало хто міг повірити, що така «розумна» поведінка машин взагалі можлива. Сповнені оптимізму дослідники передбачали, що повністю інтелектуальну машину буде побудовано протягом найближчих 20 років. З цією метою уряди багатьох країн стали вкладати гроші у дослідження штучного інтелекту та створювали цілі наукові установи. У результаті вдалося досягти значних успіхів.

 

Наприклад, 1972 року японський університет Васеда створив першого у світі повномасштабного «розумного» робота-гуманоїда, чи андроїда. Система управління кінцівками дозволяла йому ходити, а також захоплювати й транспортувати предмети руками за допомогою тактильних датчиків. Його система зору давала роботу можливість вимірювати відстані та напрямки до об’єктів, використовуючи зовнішні рецептори, штучні очі та вуха. А розмовна система допускала його спілкування з людиною японською за допомогою штучного рота.

 

Утім, до середини 1970-х дослідники ШІ зіштовхнулися з першими серйозними проблемами. Їхній величезний оптимізм підняв суспільні очікування до неймовірного рівня, і коли обіцяних результатів не було досягнуто, фінансування, спрямоване на ШІ, практично зникло. До того ж давалася взнаки недостатня потужність комп’ютерів того часу — найчастіше їм просто не вистачало пам’яті для обробки даних. Іншими словами, комп’ютери були надто слабкими, щоб демонструвати інтелект.

 

У 1980-х роках корпораціями в усьому світі було прийнято форму програми ШІ під назвою «експертні системи». Ці програми відповідали на запитання чи вирішували проблеми у певній галузі, використовуючи логічні правила, отримані з урахуванням знань експертів. Наприклад, одна з перших експертних систем Mycin використовувала ШІ для визначення бактерій, що викликають тяжкі інфекції, і рекомендувала антибіотики з дозуванням, розрахованим за масою тіла пацієнта.

 

У ті самі роки японський уряд активно фінансував ШІ у межах свого комп’ютерного проєкту п’ятого покоління. Метою цього проєкту було написання програм і створення машин, які могли б вести розмови, перекладати з різних мов, інтерпретувати зображення та міркувати, як люди. Інші країни відповіли на це власними програмами, внаслідок чого дослідження в галузі ШІ знову отримали достатнє фінансування.

 

Значних успіхів удалося досягти у сфері вивчення нейронних мереж, завдяки чому вже в 1990-х вдалося застосувати їх до оптичної ідентифікації символів та розпізнавання мови.

Утім, дуже багато організацій, які проводили дослідження ШІ у 1980-ті, так і не змогли досягти успіху, що знову змусило засумніватися у можливості створення практично застосовного штучного розуму. Як наслідок, фінансування проєктів, пов’язаних із ШІ знову почало зменшуватися на користь інших розробок, які з більшою ймовірністю могли дати швидкий результат. До кінця 1993 року понад 300 компаній, які досліджували штучний інтелект, закрилися, збанкрутували або були продані, що фактично поклало край першій комерційній хвилі ШІ.

 

Наприкінці 1980-х років деякі дослідники виступали за новий підхід до штучного інтелекту, заснований на робототехніці. Вони вважали, що для прояву справжнього інтелекту машині необхідно мати тіло — вона має сприймати, рухатися, виживати та долати світ.

 

Учені стверджували, що ці сенсомоторні навички потрібні для умінь вищого рівня, таких як здоровий глузд, і що абстрактне мислення насправді є найменш цікавою або важливою людською навичкою. Цей підхід відродив ідеї кібернетики та теорії управління, які були непопулярними з 1960-х років. Багато вчених-когнітивістів також відкинули модель обробки символів розумом і стверджували, що тіло необхідне для мислення. Ця теорія отримала назву «тези про втілений розум».

 

У наступні десятиліття сфера штучного інтелекту, на вивчення якої на той час вже було витрачено понад пів століття, нарешті досягла деяких своїх давніх цілей. ШІ почали успішно використовувати у галузі інформаційних технологій, що багато в чому було пов’язано зі збільшенням потужності комп’ютерів.

 

Крім того, частина успіху була досягнута за рахунок зосередження уваги на конкретних ізольованих проблемах та їх вирішенні з дотриманням найвищих стандартів наукової відповідальності. Іншими словами, замість того щоб одразу створити розум, подібний до людського, дослідження обмежували якимось одним завданням, наприклад, перекладати одну мову іншою.

 

11 травня 1997 року Deep Blue стала першою комп’ютерною ігровою системою, яка перемогла чинного чемпіона світу з шахів Гаррі Каспарова. Суперкомп’ютер був спеціалізованою версією системи, створеної IBM, і міг обробляти вдвічі більше ходів за секунду, ніж під час першого матчу (який Deep Blue програв) — 200 000 000.

 

У 2005 році робот зі Стенфорда виграв турнір DARPA Grand Challenge, проїхавши автономно 131 милю незвіданою стежкою в пустелі. Через два роки команда зі CMU виграла конкурс DARPA Urban Challenge, автономно проїхавши 55 миль у міському середовищі, дотримуючись при цьому правил дорожнього руху і реагуючи на небезпечні ситуації, що виникали.

 

Ці успіхи були зумовлені не якимось новим революційним підходом, а головним чином рутинним застосуванням інженерних навичок і величезним збільшенням швидкості та потужності комп’ютерів до 1990-х років. Фактично комп’ютер Deep Blue був у 10 мільйонів разів швидшим, ніж Ferranti Mark 1, якого Крістофер Стрейчі навчав грати у шахи в 1951 році.

 

У 1990-х у сфері ШІ виникла нова концепція, яка отримала назву «інтелектуальний агент». Це система, яка сприймає навколишнє середовище та вживає дій, що максимізують її шанси на успіх. Згідно з цим визначенням, прості програми, які вирішують конкретні проблеми, є інтелектуальними агентами, так само як і люди (та організації, що складаються з людей). Метою ШІ стало вивчення цих інтелектуальних агентів. Принципово новим було те, що тепер штучний розум не обмежувався лише людським інтелектом — він вивчав усі можливі види інтелекту.

 

У перші десятиліття XXI століття доступ до великих обсягів даних, більш дешеві та швидкі комп’ютери та передові методи машинного навчання успішно застосовувалися для вирішення багатьох проблем економіки.

 

До 2016 року ринок продуктів апаратного та програмного забезпечення, пов’язаних із ШІ, досяг понад 8 мільярдів доларів, а газета New York Times повідомила, що інтерес до ШІ досяг «божевілля». Досягнення у сфері глибокого навчання (особливо глибоких згорткових та рекурентних нейронних мереж) сприяли прогресу та дослідженням у сфері обробки зображень і відео, аналізу тексту та навіть розпізнавання мови.

 

У листопаді 2023 року в Блетчлі-Парку відбувся перший глобальний саміт з безпеки ШІ, на якому обговорювалися короткострокові й довгострокові ризики, а також можливість створення обов’язкових та добровільних нормативних рамок. 28 країн, зокрема США, Китай та Європейський Союз, на початку саміту опублікували декларацію, яка закликає до міжнародного співробітництва для вирішення проблем та ризиків, пов’язаних зі штучним інтелектом.

 

Бум ШІ розпочався з розробки ключових архітектур та алгоритмів, таких як архітектура перетворювача, у 2017 році, що привело до масштабування та розробки великих мовних моделей, які демонструють людські риси мислення, пізнання, уваги і творчості. Вважається, що ера штучного інтелекту розпочалася приблизно в 2022-2023 роках із публічним випуском масштабованих великих мовних моделей, таких як Chat GPT.

 

У 2023 році компанія Microsoft Research протестувала мовну модель GPT-4 з великою кількістю завдань і дійшла висновку, що «її можна розумно розглядати як ранню (але все ще неповну) версію системи загального штучного інтелекту (AGI)».

 

Перспективи штучного інтелекту дуже значні й охоплюють безліч сфер людської діяльності. ШІ продовжуватиме автоматизувати рутинні завдання у різних галузях, збільшуючи ефективність та оптимізуючи процеси. Використання алгоритмів машинного навчання та аналізу даних дасть ШІ змогу виявляти складні закономірності у великих обсягах інформації, що приведе до більш точних прогнозів та прийняття обґрунтованих рішень.

 

ШІ допоможе удосконалити персоналізовані продукти та послуги, а також покращити інтерфейси користувачів, зробивши їх ще інтуїтивнішими та зручнішими для використання. Він відіграватиме все більш важливу роль у діагностиці хвороб, розробці ліків, управлінні охороною здоров’я та персоналізації медичних послуг. За допомогою ШІ будуть керуватися автономні транспортні засоби, дрони, роботи та інші пристрої, що змінить наші уявлення про транспорт та виробництво.

 

Уже сьогодні ШІ активно використовується для створення ігор, фільмів та музики, і його роль у сфері розваг та культури лише збільшуватиметься. Водночас ШІ відіграватиме важливу роль в освітніх процесах, надаючи персоналізовані матеріали та інструменти для навчання, а також автоматизуючи деякі аспекти його оцінки та адаптації.

 

Однак разом із потенційною користю ШІ також викликає питання в галузях етики, приватності даних і безпеки, потребуючи розроблення відповідного законодавства та нормативних актів.

Гравюра 1733 року із зображенням баржі-криголама в Амстердамі

Перший у світі атомний криголам

Незамінні криголами

З давніх-давен водні шляхи відігравали важливу роль у транспортуванні різних важких речей. Мало того, що по воді можна було переправляти значні вантажі, для перевезення яких знадобилася б не одна кінна упряж, так ще й сполучення з багатьма віддаленими поселеннями здійснювалося виключно річкою.

 

Тому настання морозів, які сковують поверхню водойм кригою, ставало справжньою проблемою. З цієї причини в північних регіонах для розчищення проток застосовували «криголамні човни». На корму довгого плоскодонного човна складали важкий вантаж, після чого тягли його льодом. Легкий ніс човна піднімався на лід, а важка корма підламувала його своєю вагою.

 

Перша документальна згадка про спеціалізовані судна для звільнення водохідних каналів від криги датується 1383 роком і описує процес розчищення міського рову в Голландії за допомогою плоскодонної баржі, яку кіньми буксирували вздовж берега. По всій ширині плоского носа розміщувалося кілька металевих гребенів, що розламували кригу. Уламки криги виштовхувалися під баржу і спливали за нею.

 

Такий спосіб підходив для річкових шляхів, товщина криги на яких була відносно невеликою. Що ж до полярних морів, лід у яких сягав у глибину на два з половиною метри, то в цих місцях вигадували особливі способи подолання льодових перешкод. Ескімоси, що жили в Заполяр’ї, наприклад, використовували невеликі одномісні човни — каяки, які однаково легко переміщувалися як по воді, так і по кризі, як звичайні сани.

 

У XI столітті почалося заселення берегів Білого моря, названого так через те, що понад пів року воно було вкрите кригою. Поселенці Примор’я — помори — розробили особливий тип невеликих вітрильних суден, які використовувалися для плавань у льодових умовах арктичних морів та сибірських річок.

 

Таке вітрильне судно, зване кох, мало корпус із заокругленими формами, завдяки яким у разі затискання корабля кригою його просто виштовхувало на лід без пошкоджень, а не роздавлювало, немов лещатами. Плоска носова частина коха дозволяла йому наповзати на лід і ламати його власною вагою. Крім того, корпус мав подвійну обшивку та посилювався зсередини додатковими поперечинами, а також обшивався залізними смугами на носі, кормі та вздовж кіля.

 

У ХІХ столітті з появою пароплавів почали розробляти проєкти перших криголамів. Оскільки основним рушієм парових суден у ті часи були розташовані по бортах гребні колеса, треба було руйнувати кригу перед ними. У зв’язку з цим пропонувалися конструкції, які ламали лід ударами важких предметів. Для цього на пароплаві встановлювався спеціальний підйомний пристрій, за допомогою якого на лід кидали важкі гирі. «Гирьові» криголами були досить поширені до появи суден сучасного типу.

 

Перший із таких криголамів був побудований 1864 року кронштадтським підприємцем М. О. Брітнєвим. Це був портовий буксирний пароплав «Пайлот», корпус якого переробили з урахуванням особливостей конструкції поморських суден, які століттями плавали водами Білого та Баренцева морів. Використання «Пайлота» дозволило подовжити сезон літньої навігації на кілька тижнів, тому пізніше було збудовано ще кілька суден такого типу.

 

Під час холодної зими 1870–1871 років, коли замерзання річки Ельби призвело до тривалої зупинки судноплавства та величезних економічних втрат, влада Гамбурга купила креслення «Пайлота» і побудувала за ними власний криголам «Айсбрехер-1» (у перекладі з німецької Eisbrecher — руйнувач льоду ). Так поступово криголами почали поширюватися по всіх північних районах планети.

 

У 1899 році був побудований перший у світі арктичний криголам «Єрмак». У його конструкції використовувався той самий принцип, що дозволяє кораблю наїжджати на лід і ламати його власною вагою. Водотоннажність «Єрмака» становила 5000 тонн, а його паропоршневі двигуни видавали потужність 10 000 кінських сил (7500 кВт).

 

На початку XX століття експлуатувати арктичні криголами почали в низці країн. Наприклад, у Канаді подібні судна використовували для звільнення річок від крижаних заторів з метою запобігання повеням, а також поповнення продовольчих запасів в Арктиці. Більшість криголамів були прибережними, тобто зона їх дії обмежувалася гирлами річок і невеликою віддаленістю від портів. Однак було побудовано й кілька океанських криголамів водотоннажністю до 11 000 тонн, за допомогою яких забезпечувалися судноплавні маршрути для транспортних та військових кораблів.

 

Для надійності в океанських криголамах використовувалися три кормові гребні гвинти і навіть один носовий, завдяки якому судно ефективніше пересувалося в битій кризі. Корпус проєктувався з таким розрахунком, щоб він міг витримувати удар об лід на максимально можливій швидкості. На носі, кормі та по бортах розташовувалися спеціальні баластові цистерни, наповнюючи та спустошуючи які за допомогою насосів, можна було розгойдувати криголам, якщо він застрягав у кризі.

 

У 1933 році у Швеції був побудований перший у світі дизель-електричний криголам. Його силова установка давала змогу значно збільшити потужність судна, забезпечити швидкий реверс та підтримувати швидкість обертання гребного гвинта у широкому діапазоні. Зазначені переваги значно покращували експлуатаційні характеристики суден цього типу. Однак навіть такі криголами не завжди могли впоратися з поставленими завданнями. Наприклад, для освоєння Північного морського шляху — найкоротшого маршруту між Європою та Далеким Сходом через Північний Льодовитий океан — були потрібні криголами з великим запасом ходу, оскільки заправляти судна дизпаливом уздовж сибірського узбережжя було просто ніде.

 

Вирішити це завдання стало можливим після створення криголамів з атомною силовою установкою. Таке судно під назвою «Ленін» було спроєктоване у 1956 році, ставши першим у світі надводним судном з ядерним реактором та першим атомним судном, що експлуатується цивільними особами. Експлуатація атомного криголама почалася 1959 року і тривала до 1989 року.

 

Атомні криголами набагато потужніші за дизельні. Потужність силової установки «Леніна» досягала 44 000 кінських сил (32,4 МВт), а побудований 1972 року атомний криголам «Арктика», що став найбільшим криголамом світу, розвивав потужність 75 000 кінських сил (55 МВт). Саме «Арктиці» вдалося в серпні 1977 дійти до вершини планети, досягнувши Північного полюса. Примітно, що з 1989 року подібні походи стали регулярними: деякі атомні криголами використовуються для туристичних екскурсій до Північного полюса.

 

Незамінність атомних криголамів особливо виразно була продемонстрована в 1983 році, коли в східному секторі Арктики в крижану пастку потрапили понад 50 суден, зокрема нові дизельні криголами «Єрмак» та «Адмірал Макаров», і навіть атомохід «Ленін». Під загрозою опинилися не лише судна, а й життєзабезпечення арктичних селищ, які чекали на сезонне завезення продовольства та товарів. Атомохід «Арктика» зумів вивільнити каравани суден із крижаного полону. Ця операція по праву вважається найбільшою із рятувальних операцій на морі.

 

Атомні криголами використовуються для наукових експедицій, забезпечують проведення глибоководних досліджень та безпеку бурових робіт у водах Північного Льодовитого океану. На сьогодні існують 12 атомних криголамів, 7 з яких продовжують експлуатуватися.

 

Цікаво, що можливості сучасних атомних криголамів розширюються не тільки за рахунок збільшення їх розмірів та потужності. У будь-якому разі криголами намагаються проламувати лід там, де він найтонший, щоб не потрапити в крижані пастки. І якщо наприкінці XX століття для дослідження товщини льоду використовувалися спеціальні літаки, то сьогодні з цією метою активно застосовують супутникові системи.

Перший електронний калькулятор Casio

Калькулятор Casio Mini, що з’явився через 15 років після першого електронного калькулятора

Калькулятор Casio Mini Card LC-7 1978 року випуску

Нова лічильна машина братів Кашіо

Після Другої світової війни Японія була повністю зруйнованою країною. Щоб якнайшвидше повернутися до звичайного мирного життя, і без того працьовиті японці працювали ще старанніше. Купівельна спроможність більшості населення була вкрай низькою, тому ставка робилася на виготовлення простих, але практичних речей. Сім’я Кашіо, у розпорядженні якої опинився старенький токарний верстат, у 1946 році почала виробляти свій нехитрий винахід — мундштук для цигарок, припаяний до кільця, яке надягалося на палець.

 

Це був справді японський винахід. Він не тільки давав змогу викурювати цигарку повністю, а значить, економити ресурси, а й працювати, буквально не покладаючи рук навіть під час перекуру.

Новинка мала величезний попит, і бізнес сім’ї Кашіо процвітав. Незабаром вони навіть найняли собі на допомогу трьох робітників.

 

 

У 1949 році Тадао Кашіо, старший із братів та ініціатор сімейного бізнесу, став свідком показового змагання між рахівником-японцем зі звичайною рахівницею та американським солдатом, який робив підрахунки за допомогою арифмометра, обладнаного електромотором. І хоча у змаганні переміг японець, рівень роботи лічильної машини дуже вразив Тадао, який зрозумів, що майбутнє за новими технологіями, і захопився ідеєю створення електричної обчислювальної машини, вирішивши вкласти в цей напрямок усі гроші, зароблені на успіху мундштука.

 

Другий брат, Тосіо, був талановитим винахідником і за підтримки старшого брата почав проєктувати власну обчислювальну машину. За задумом братів Кашіо, вона мала радикально відрізнятися від усього, що було на ринку: численні моделі арифмометрів, які хоч уже й оснащувалися електродвигунами, але, як і раніше, ґрунтувалися на механічному принципі роботи, а тому були шумними і не надто продуктивними.

 

Тосіо вирішив повністю замінити усі механічні компоненти електронікою. Роботу над новою обчислювальною машиною він виконував у вільний час, вечорами, тому на проєктування пішло п’ять довгих років. Коли перша модель була повністю готова, виявилося, що калькулятор, задуманий як інноваційний, застарів уже на стадії розробки. Річ у тім, що пристрій не мав функції безперервного множення — виконавши одну дію, потрібно було скинути результат, перш ніж перейти до наступної операції.

 

Проте брати Кашіо не здавалися. Отримавши позику в банку, вони взялися за переробку свого винаходу, який мав свої безперечні плюси, що визначили вигляд калькуляторів аж до наших днів.

По-перше, у машини Кашіо було лише 10 клавіш для введення чисел, тоді як у всіх попередників клавіатура мала по 9 клавіш для кожного з розрядів: одиниць, десятків, сотень і т. д.

 

По-друге, брати вирішили залишити лише один дисплей для відображення чисел замість трьох, як у інших обчислювальних машин того часу: окремо для першого і другого чисел математичної дії, а також для виведення результату підрахунку. У Кашіо кожне попереднє число зникало з дисплея при введенні нового, а в кінці дії на екрані висвічувалася відповідь.

 

Оскільки Тадао та Тосіо днями були зайняті на виробництві, а над своїм винаходом працювали лише вечорами, перший у світі електронний калькулятор Casio 14-А з’явився лише 1957 року. Попри свої величезні розміри, апарат, що важив понад сто кілограмів, став найкращим у світі за технічними параметрами, започаткувавши цілу серію інноваційних обчислювальних машин.

 

Для розвитку крихітної сімейної компанії були потрібні інвестиції. Тому було ухвалено рішення реорганізувати фірму, зробивши її акціонерною. При цьому назва була перероблена на західний манер — Casio Computer.

 

До речі, цифра 14 у назві моделі вказувала на можливість виконувати операції з 14-значними числами.

 

Бажаючи зробити модель доступною для масового виробництва, Тосіо Кашіо вирішив відмовитися від громіздких соленоїдів на користь реле. Слід зазначити, що того часу вже існувала програмована обчислювальна техніка, і до кінця 1950-х років технологія реле вже використовувалася у величезних комп’ютерах, які займали цілі зали університетів і технологічних інститутів.

 

А щоб використовувати цю технологію у виробництві побутового масового пристрою Тосіо довелося подбати про те, щоб якось зменшити кількість цих реле (у комп’ютерах вона доходила до десятків тисяч, а в калькуляторі Casio було лише 342 реле). Взагалі Тосіо був відомий тим, що багато уваги при роботі над винаходами приділяв тому, щоб згодом цей виріб було зручно збирати звичайним працівникам. Примітно, що саме Тосіо придумав використовувати в техніці дроти різного кольору, щоб було легше орієнтуватися при монтажі вузлів. Тепер різнокольорові дроти використовуються в усьому світі.

 

Нарешті, усі інженерні завдання були успішно вирішені, і калькулятор Casio 14-A був запущений у виробництво. Першими покупцями величезної та дорогої обчислювальної машини стали великі компанії та дослідницькі інститути. Вирученого від продажу калькуляторів прибутку було достатньо, щоб відкрити новий завод і фінансувати подальші розробки.

 

У 1965 році було створено модель калькулятора Casio 001 з функцією пам’яті. На той час на ринку електронних калькуляторів з’явилося безліч конкурентів, тому компанії Casio доводилося докладати зусиль і постійно вдосконалювати свої моделі, щоби зберігати лідерство в цьому напрямку.

 

Згодом у лінійці компанії Casio з’являлися нові електронні пристрої: синтезатори, електронний годинник, рідкокристалічні телевізори, відеотелефони, автомобільні навігаційні системи, кишенькові комп’ютери. Але до цього дня калькулятори продовжують залишатися одним із основних напрямків діяльності компанії.

 

Водночас історія розвитку електронних калькуляторів пов’язана також з іншими виробниками. У жовтні 1961 року британська компанія ANITA представила перший у світі настільний калькулятор на основі електронних ламп. Цей виріб важив всього близько 15 кілограмів і досить добре продавався, оскільки на той момент ця безшумна і швидка лічильна машина була набагато доступнішою за ціною, ніж розробка братів Кашіо.

 

У червні 1963 року в США було вироблено перший повністю транзисторний калькулятор Friden EC-130. 13-значні числа відображалися на 5-дюймовому екрані електронно-променевої трубки (як у старих телевізорах). А в 1966 році розпочався продаж калькулятора Victor 3900, у конструкції якого замість окремих транзисторів вперше використовувалися інтегральні схеми.

 

Болгарський Elka 6521, представлений у 1965 році, став першим у світі калькулятором, здатним обчислювати квадратний корінь. Дещо пізніше в тому ж році були випущені моделі Elka 22 (з люмінесцентним дисплеєм) і Elka 25 зі вбудованим принтером.

 

Приблизно в той же період, у середині 1960-х, були випущені калькулятори у вигляді твердотільних, настільних, друкувальних, з рухомою комою, алгебраїчним уведенням, програмованих обчислювальних машин зі збереженою програмою. Користувач міг запрограмувати різні методи рішення та роздрукувати результати. Найбільшого поширення набула випущена в кінці 1965 року машина Olivetti Programma 101, що мала додаткову функцію автономного зберігання програм за допомогою магнітних карт.

 

До речі, головною відмінністю програмованих калькуляторів від комп’ютерів була обмежена кількість логічних операторів, що унеможливлювало логіку умовного переходу, тобто відгалуження програми, здатного розпочати виконання іншої послідовності команд, яка відрізняється від початкової.

 

Довгий час електронні калькулятори мали вигляд громіздких та важких настільних машин з великим енергоспоживанням, що потребували джерела живлення змінного струму. Але вже до кінця 1960-х калькулятор можна було зробити з використанням лише кількох мікросхем з низьким енергоспоживанням, що дало змогу створити перші портативні моделі з живленням від батарейок.

 

Прототипом першого кишенькового калькулятора став CalTech, розроблений американською компанією Texas Instruments у 1967 році. Він міг додавати, множити, віднімати і ділити, а пристроєм для виведення результату у нього була паперова стрічка.

 

Перші серійно випущені портативні калькулятори з’явилися в 1970 році в Японії. Серед них були Sanyo ICC-0081 Mini Calculator і Sharp QT-8B Micro Compet. Ці моделі були досить дорогими, тому їхнє придбання масовим покупцем викликало сумніви. Ситуація змінилася з появою проривних технологій у галузі відображення: вакуумних флуоресцентних дисплеїв, світлодіодів та рідкокристалічних дисплеїв. Завдяки цьому вже до середини 1970-х калькулятори значно подешевшали та стали доступні всім.

 

На початку 1972 року компанія Hewlett-Packard (HP) випустила перший інженерний калькулятор. Завдяки додатковим математичним функціям він міг замінити логарифмічну лінійку.

До кінця 1970-х споживана потужність інтегральних схем, що використовувалися в калькуляторах, настільки знизилася, що з’явилася можливість застосовувати сонячні елементи як джерело енергії. У 1978 році це було реалізовано в перших моделях із сонячними батареями: Royal Solar 1, Sharp EL-8026 та Teal Photon. Крім того, габарити калькуляторів зменшилися до розмірів кредитної картки, як, наприклад, Casio Mini Card LC-7.

 

У тому ж 1978 виникла нова компанія Calculated Industries, яка зосередилася на спеціалізованих ринках. Їхня перша модель Loan Arranger була кишеньковим калькулятором, що продавався в сфері нерухомості й мав заздалегідь запрограмовані функції для спрощення процесу розрахунку платежів і майбутньої вартості. У 1985 році CI випустила калькулятор для будівельної галузі під назвою Construction Master, у якому були попередньо запрограмовані загальні будівельні розрахунки.

 

У 1980-ті калькулятори ставали все більш функціональними. 1985 року з’явився перший графічний калькулятор Casio fx-7000G, здатний будувати графіки функцій. А 1987 року HP-28C став першим калькулятором, здатним виконувати розв’язання рівнянь у символьному вигляді. Із часом калькулятори стали настільки просунутими, що не завжди можна було визначити чітку межу між графічним калькулятором та портативним комп’ютером. Деякі моделі калькуляторів могли диференціювати та інтегрувати функції, вирішувати диференціальні рівняння, запускати програмне забезпечення для обробки тексту та PIM і підключатися за допомогою дроту або через інфрачервоний порт до інших калькуляторів / комп’ютерів.

 

Навіть Попри те що в даний час калькулятори стали стандартною вбудованою функцією в персональних комп’ютерах, планшетах і смартфонах, вони, як і раніше, залишаються затребуваними у вигляді окремих пристроїв для різних напрямків людської діяльності: фінансової, інженерної, торгової та інших.

 

У перспективі розвиток технологій, зокрема штучного інтелекту та квантових обчислень, може привести до появи нових типів калькуляторів з більш широкими функціональними можливостями та більшою продуктивністю. Крім того, поліпшення апаратного та програмного забезпечення можуть зробити калькулятори ще більш потужними та ефективними у вирішенні різних завдань.

Оптичний квантовий генератор, чи лазер

Лазер, або Оптичний квантовий генератор

Цікаво, що ще 1910 року, коли француз Жорж Клод просував свій винахід — неонову лампу, якийсь допитливий умілець міг би приробити до неї бічні дзеркала і, за певного везіння, зміг би зробити перший примітивний лазер. Хто знає, як би склалася історія у такому разі…

 

Утім, на той час досліджувати газові розряди задля спостереження вимушеного випромінювання ще нікому не спадало на думку, оскільки вчені поки що навіть нічого не підозрювали про таке явище. Лише 1913 року Альберт Ейнштейн вперше озвучив гіпотезу, за якою у надрах зірок випромінювання може виникати вимушено під впливом фотонів. У 1917 році вчений не тільки пояснив існування такого випромінювання, ґрунтуючись на загальних принципах квантової механіки та термодинаміки, але й довів, що воно має однаковий напрямок, довжину хвилі, фазу й поляризацію — кажучи науковою мовою, випромінювання когерентне.

 

Ще через десять років британський фізик-теоретик Поль Дірак обґрунтував і узагальнив висновки Ейнштейна. А 1928 року директор відділу атомної фізики Інституту фізичної хімії та електрохімії Товариства кайзера Вільгельма Рудольф Ладенбурґ та його учень Ганс Копферманн вперше змогли експериментально довести теорію, спостерігаючи вимушене випромінювання, причому саме у дослідах із неоновими лампами. Воно було дуже слабким і майже не виділялося на фоні звичайного, спонтанного випромінювання, тому жодних ідей щодо того, як його можна використовувати з практичною метою, не виникло.

 

Першу серйозну роботу, спрямовану на посилення оптичних сигналів за допомогою вимушеного випромінювання, було опубліковано 1940 року — це була докторська дисертація Валентина Фабриканта. Друга світова війна завадила розвитку ідеї, та й у 1951 році, коли Фабрикант спільно з колегами подав заявку на винахід нового методу посилення електромагнітного випромінювання, будь-яких успіхів у створенні оптичного підсилювача досягти не вдалося.

 

Вигадати такий підсилювач змогли радіофізики, яким набагато частіше доводилося стикатися з необхідністю посилення електромагнітних коливань, ніж оптикам. Навесні 1951 року професор фізики Колумбійського університету Чарльз Таунс здогадався, як можна побудувати мікрохвильовий генератор, розділяючи електростатичними полями та заганяючи пучок збуджених молекул у металеву порожнину.

 

Реалізація ідеї потребувала певного часу, тому перший квантовий генератор сантиметрових радіохвиль було запущено лише у квітні 1954 року. Цей прилад Таунс назвав мазером (MASER — абревіатура від Microwave Amplification by Stimulated Emission of Radiation, тобто мікрохвильове посилення за допомогою вимушеного випромінювання). Надати теоретичне пояснення роботі мазера змогли фізики Олександр Прохоров і Микола Басов. 1964 року Таунс, Басов та Прохоров отримали за свої дослідження цілком заслужену Нобелівську премію.

До речі, нині мазери цілком успішно використовуються у техніці (зокрема, у космічному зв’язку), а також у фізичних дослідженнях.

 

Після створення мазера залишався буквально один крок до винаходу аналогічного пристрою для хвиль видимого спектра. У 1957 році аспірант Колумбійського університету Ґордон Ґулд накидав у записнику план створення генератора світла за допомогою макроскопічних відкритих дзеркальних резонаторів. Своєю ідеєю він поділився з Таунсом, назвавши свій пристрій оптичним мазером.

 

У 1959 році він здогадався замінити слово «мікрохвилі» на «світло» — світлове посилення за допомогою вимушеного випромінювання (Light Amplification by Stimulated Emission of Radiation — LASER). Якщо бути точним, лазерами прийнято називати не підсилювачі, а генератори випромінювання, але назва, що з’явилася за аналогією з мазером, швидко прижилася, нікого особливо не бентежачи. Утім, у науковому середовищі часто зустрічається й інша, точніша назва лазера — оптичний квантовий генератор.

 

Примітно, що Ґулд відомий своєю тридцятирічною патентною боротьбою зі США через лазер і пов’язані з ним технології, а також із виробниками лазерів, які порушували його патенти. Зрештою вчений зміг довести свою правоту і став дуже багатою людиною.

 

Перший діючий лазер був створений у травні 1960 року співробітником корпорації Hughes Aircraft Теодором Мейманом, який як активне середовище вибрав рубін — дорогоцінний мінерал, що є оксидом алюмінію з невеликою домішкою хрому, який і надає йому червоного забарвлення.

 

Мейман зрозумів, що розділені великими проміжками атоми хрому можуть «світити» не гірше за атоми газу. Для отримання оптичного резонансу він напилив тонкий шар срібла на поліровані паралельні торці циліндрика із синтетичного рубіну. Циліндр за спеціальним замовленням виготовила фірма Union Carbide, на що їй знадобилося п’ять місяців. Мейман помістив стовпчик рубіну в спіральну трубку, що дає яскраві світлові спалахи.

 

У грудні того ж 1960 року було створено гелій-неоновий лазер. За цікавим збігом сталося це рівно через 50 років після того, як Клод вразив уяву відвідувачів Паризької автомобільної виставки своїми неоновими трубками, що світилися. Гелій-неоновий лазер працював в інфрачервоному діапазоні, тобто був невидимим для ока людини, проте через два роки розробники досягли червоного світіння.

 

Після цього розпочалася справжня лазерна епоха. Тисячі вчених та інженерів з різних країн розробляли лазери різних типів. У 1961 році запрацював перший лазер на неодимовому склі, протягом п’яти років були розроблені напівпровідникові лазерні діоди, лазери на органічних барвниках, хімічні лазери, лазери на двоокисі вуглецю. У 1963 році Жорес Алферов і Герберт Кремер незалежно один від одного розробили теорію напівпровідникових гетероструктур, на основі яких пізніше було створено багато лазерів (за цю роботу вони 2000 року отримали Нобелівську премію).

 

Сучасний світ неможливо уявити без лазерних технологій. Сканери штрих-кодів у супермаркетах, пристрої для зчитування CD, DVD та Blu-Ray-дисків і навіть звичайні лазерні указки давно стали частиною нашої повсякденності. Крім цього, лазери використовуються для створення голографічних зображень, для вимірювання відстані, для різання, гравіювання, зварювання, свердління та маркування у промисловому виробництві, а також для проведення найскладніших хірургічних операцій, зокрема на очах.

 

Волоконно-оптичний зв’язок, який широко використовується зокрема для передавання даних на далекі відстані, також ґрунтується на поширенні лазерного світла в оптичних волокнах. І в космічному просторі для комунікації із супутниками найчастіше використовуються лазерні промені, які поширюються на великі відстані, але при цьому мають малу розбіжність променя. Лазерні мікроскопи та установки для оптичної когерентної томографії (ОСТ) формують зображення, наприклад, біологічних зразків з дуже високою роздільною здатністю, найчастіше у трьох вимірах.

 

Лазери широко використовують у наукових цілях. Наприклад, за допомогою лазерного охолодження можна довести хмари атомів та іонів до вкрай низьких температур. А в біологічних та медичних дослідженнях використовується так званий оптичний пінцет — лазерний інструмент для захоплення та маніпулювання дрібними частинками.

 

І, звісно ж, існує ціла низка військових застосувань. За допомогою досить потужних лазерів знищуються ракети, снаряди й міни. В інших випадках лазери використовуються в цілевказівниках або лазерних прицілах. За допомогою лазерів «засліплюються» тепловізори та інші оптичні прилади військової техніки.

 

У майбутньому можлива поява реакторів лазерного індукування ядерного синтезу для одержання електроенергії. Така технологія може стати гідною альтернативою термоядерним реакторам. Крім того, лазерні технології можуть використовуватися для бездротового передавання енергії на відстані.

 

Значимість лазерів у сучасному житті важко переоцінити. Лазерні технології зробили справжню революцію в незліченних аспектах людського життя і продовжують стимулювати інновації в різних галузях, роблячи значний внесок у технологічний та соціальний прогрес.

Перший персональний комп’ютер IBM 610

Народження персональних комп'ютерів

У 1957 році компанія IBM представила громадськості комп’ютер під назвою 610 Auto-Point, розроблений Джоном Ленцем із Колумбійського університету. Головною особливістю цього комп’ютера було те, що він був спеціально спроєктований для використання однією людиною, чия професійна діяльність ніяк не пов’язана з комп’ютерною технікою і весь досвід роботи з електронними обчислювальними машинами зводиться хіба що до користування калькулятором. По суті це був перший персональний комп’ютер у сучасному розумінні цього терміна.

 

Модель 610 була досить компактною, щоб поміститися у звичайному офісі. Комп’ютер важив близько 360 кг і не потребував особливих умов, таких як кондиціювання або підтримання певної температури повітря. У ньому використовувалися вакуумні лампи, магнітний барабан, а також пристрої для перфострічки і перфоратори. Введення даних здійснювалося з клавіатури, а виведення — на електричну друкарську машинку IBM зі швидкістю вісімнадцять символів на секунду.

 

В описі виробник вказував, що це «єдиний настільний електронний комп’ютер з прямим програмуванням та автоматичним позиціонуванням десяткової коми». Під автоматичною комою малося на увазі, що обчислювальна машина здатна самостійно коригувати значення в арифметиці з рухомою комою, тобто, грубо кажучи, округляти числа при обчисленнях.

 

Усього було випущено 180 екземплярів 610-ї моделі, вартість кожного з яких становила 55 тисяч доларів — приблизно 20 нових легкових автомобілів! Утім, комп’ютер можна було взяти в оренду «всього» за 1150 доларів на місяць. Через захмарну вартість значного поширення перші персональні комп’ютери не набули.

 

Примітно, що за кілька років, у жовтні 1964-го, у різних профільних американських виданнях з’явилася реклама настільного калькулятора HP9100A, в описі якого вперше використовувався термін «персональний комп’ютер». А ось сам ПК у звичному для нас сьогодні розумінні виник пізніше.

 

У 1968 році інженер NASA Остін Рош накидав на звичайній скатертині клубу в Сан-Антоніо конфігурацію свого задуму. Саме ці нариси згодом стали основою роботи компанії Computer Terminal Corp (CTC) зі створення персонального комп’ютера. Процес реалізації ідей затягнувся на кілька років: свій перший комп’ютер, названий Datapoint 2200, компанія СТС представила наприкінці 1970 року. Інформація зберігалася на касетах, на яких поміщалося до 130 КБ даних. Оперативна пам’ять займала 8 КБ.

 

Першим по-справжньому масовим персональним комп’ютером став мікрокомп’ютер Altair 8800 компанії MITS (Micro Instrumentation and Telemetry Systems) на основі нещодавно розробленого мікропроцесора Intel 8080. Новинка просто «вибухнула» на ринку — комп’ютер можна було купити у вже зібраному вигляді за 621 долар або замовити у вигляді набору для збирання за 439 доларів. Розробник ПК Генрі Едвардс Робертс, американський підприємець та інженер, планував реалізувати кілька сотень пристроїв серед фанатів електроніки. Однак лише за перший місяць продажів покупців знайшли кілька тисяч комп’ютерів.

 

Варто зазначити, що комп’ютерники-ентузіасти розробили для Altair 8800 найбагатші периферію та софт, а також плати розширення, перетворивши цей ПК на повноцінну серйозну машину. За деякими даними, для цього комп’ютера навіть було створено першу у світі кольорову відеокарту.

 

Утім, Altair 8800 не був єдиним персональним комп’ютером того часу. У 1976 році Стів Возняк засів за виробництво Apple l з метою вмістити його в звичайний портфель. І молодому інженерові вдалося це зробити — за компактністю та функціональністю аналогів Apple I на ринку не було.

 

Так з’явилася компанія Apple — Стів Джобс продав свій автофургон Volkswagen, Возняк пожертвував калькулятором HP. Здобутих коштів вистачило на запуск виробництва перших комп’ютерів у гаражі, де компаньйони буквально на колінах майстрували свої перші пристрої. Реалізувавши 250 штук, Стів Возняк вирішив модернізувати першу версію.

 

Зроблений в 1977 році Apple II мав стильний білий корпус, вбудований монітор, був оснащений дисководом для 5-дюймових дискет, операційною системою, відображав кольорову графіку. Також

Возняк для свого дітища створив Apple DOS, мову програмування Calvin та структурував файлову систему.

 

У результаті вийшов революційний продукт, який вивів компанію Apple у лідери ринку. До речі, успіх Apple II зробив 5,25-дюймові дисководи стандартом, проте через кілька років розробники почали замінювати 5,25-дюймові дисководи на 3,5-дюймові.

 

1984 року компанія Apple закріпилася в лідерах, випустивши комп’ютер Macintosh, який визначив зовнішній вигляд сучасних ПК на багато років уперед. Macintosh був оснащений клавіатурою, мишею, дисководом, колонками, інтерфейсом із ярликами на робочому столі. Жорсткий диск мав об’єм 20 МБ.

 

А 1990 року вийшла третя версія операційної системи Windows від компанії Microsoft. За перші пів року після релізу було продано понад 1 мільйон екземплярів. Так у Apple з’явився серйозний конкурент. До речі, протистояння між комп’ютерними гігантами триває досі.

 

На думку експертів, наразі відбувається народження персональних комп’ютерів нового покоління — з використанням штучного інтелекту. Іншою перспективою розвитку ПК є квантовий комп’ютер, який використовує для обчислень не біти зі значеннями 0 або 1, а кубіти, у яких значення можуть бути реалізовані одночасно і у вигляді 0, і у вигляді 1. На думку вчених, це дасть сучасним персональним комп’ютерам суттєву перевагу — так звану квантову перевагу: здатність виконати певне завдання значно швидше, ніж класичний комп’ютер.

Перший штучний супутник Землі

Розвиток супутникових технологій

Ще в 1729 році знаменитий Ісаак Ньютон передбачив можливість створення штучного супутника Землі, пояснивши це на прикладі гарматного ядра: «Уявіть, що ви помістили гармату на вершину гори і вистрілили з неї горизонтально. Гарматне ядро подорожуватиме паралельно до поверхні Землі ще певний час, але зрештою поступиться силі тяжіння і впаде на Землю. Тепер уявіть, що ви продовжуєте додавати порох у гармату. З додатковими вибухами ядро подорожуватиме все далі й далі, доки не впаде. Насипте потрібну кількість пороху і надайте ядру правильного прискорення, і воно буде постійно літати навколо планети, завжди падаючи у гравітаційному полі, але ніколи не досягаючи Землі».

 

Пізніше було розраховано, що для такого кругового обертання навколо Землі будь-який об’єкт має розігнатися до швидкості не менше 7,91 км/с — ця швидкість отримала назву першої космічної.

 

До середини XX століття вчені та інженери усвідомлювали потенційні переваги використання штучних супутників для комунікації, навігації, наукових досліджень та військових цілей.

 

Розроблювані ракетні технології, у теорію яких значний внесок зробили такі вчені, як Костянтин Ціолковський та Роберт Ґоддард, створювали основу для польотів у космос.

 

4 жовтня 1957 року було запущено перший штучний супутник Землі, ця подія стала початком космічної епохи людства. Кодове позначення супутника при його розробці було ПС-1 (Простий Супутник-1), проте за тиждень до запуску на науковій конференції у Вашингтоні доктор Сергій Полосков у своїй доповіді озвучив слово «супутник», після чого друковані видання зробили Sputnik відомим усьому світу.

 

Супутник мав вигляд відполірованої до дзеркального блиску порожнистої кулі з алюмінієво-магнієвого сплаву, усередині якої були розміщені блок батарей, радіопередавальний пристрій, вентилятор із термореле, датчики температури і тиску.

 

Дві половини кулі з’єднувалися між собою 36 болтами, а весь внутрішній простір перед запуском супутника наповнювався сухим газоподібним азотом під тиском 1,3 атмосфери. До кулі були прикріплені дві пари антен завдовжки 2,4 м і 2,9 м, які забезпечували стійкий радіозв’язок незалежно від положення супутника. Маса кулі становила 83,6 кг, із яких близько 50 кг припадало на акумуляторні батареї.

 

Над створенням супутника працювала команда видатних учених під керівництвом Сергія Павловича Корольова — основоположника практичної космонавтики. Для запуску космічного апарата використовувалася ракета-носій М1-1СП, що увійшла в історію як перша ракета, яка досягла першої космічної швидкості. Вона була модифікацією балістичної ракети Р-7 і після успішного запуску отримала назву «Супутник», а згодом послужила основою для створення цілого сімейства космічних ракет-носіїв.

 

Через 295 секунд після запуску центральний блок ракети вагою 7,5 т вийшов на навколоземну орбіту, а на 314-й секунді після старту відбулося відділення супутника, і він почав подавати сигнали — ці звуки нагадували писк, і їх могли приймати навіть радіоаматори. Багато хто спостерігав і зірочку, яка швидко рухалася небосхилом, вважаючи, що це і є той самий супутник. Насправді з Землі було видно другий ступінь ракети — центральний блок, який вийшов на орбіту разом із супутником.

 

ПС-1 літав 92 дні (до 4 січня 1958 року). За цей час він здійснив 1440 обертів навколо Землі, здолавши близько 60 млн кілометрів. Акумуляторних батарей вистачило на 21 день роботи радіопередавача, після чого супутник замовк. Згодом через тертя у верхніх шарах атмосфери він втратив швидкість, опустився ще нижче і згорів, увійшовши в щільні шари атмосфери.

 

Запуск першого штучного супутника мав величезне значення і далекі перспективи. Було доведено, що ракетні технології досягли такого рівня розвитку, коли людина змогла вивести об’єкт за межі земної атмосфери та утримувати його на орбіті. Це надало вченим нові можливості для вивчення навколоземного простору, атмосфери, магнітосфери та інших явищ, що стимулювало значні відкриття у галузі науки та розуміння планети і космосу.

 

Подальший розвиток супутникових технологій вкрай важливий для сучасних систем телекомунікацій, глобальної навігації та моніторингу погоди. Крім того, сьогодні супутники широко використовуються для наукових досліджень у різних галузях, зокрема астрономії, геології, екології, океанографії тощо. Супутникові технології відіграють важливу роль у військовому зв’язку, розвідці, навігації, супутниковому спостереженні та інших аспектах національної безпеки.

 

Вони також використовуються для відстеження вантажних суден, контейнерів, автотранспорту та інших об’єктів, що допомагає в управлінні логістичними процесами та гарантії безпеки транспортних засобів. Супутникові системи надають доступ до телекомунікаційних послуг та Інтернету у віддалених районах, де використання провідної інфраструктури є неефективним або неможливим.

Космічна ера розвитку людства

Розвиток ракетних технологій, який дав змогу здійснити успішні запуски штучних супутників Землі, сприяв накопиченню необхідного досвіду та даних для підготовки до польотів з екіпажем. Для тестування систем життєзабезпечення в умовах космічного простору та оцінки безпеки для майбутніх пілотованих місій у космос спочатку запускали тварин, багато з яких, на жаль, унаслідок цього загинули. Проте отримані дані допомогли вченим краще зрозуміти, як організми реагують на умови невагомості, радіацію та інші фактори космічного середовища.

 

Рішення про розробку пілотованого комплексу «Восток» було ухвалене у травні 1959 року. Через космічну гонку між СРСР і США, яка на той момент була в самому розпалі, при створенні космічного корабля вирішили відмовитися від систем аварійного порятунку на старті та системи м’якої посадки. Крім того, прибрали дублюючу гальмівну систему, вирішивши, що навіть якщо не спрацює основна, корабель так чи інакше зійде з орбіти протягом 10 діб після запуску через тертя у верхніх шарах атмосфери і повернеться на Землю. Політ планувався повністю в автоматичному режимі, але у разі потреби космонавт міг у будь-який момент увімкнути ручне управління кораблем.

 

12 квітня 1961 року льотчик-космонавт Юрій Олексійович Гагарін здійснив перший у світі політ у космічний простір. Фраза «Поїхали!», проголошена Гагаріним під час старту, стала своєрідним символом нової, космічної, епохи розвитку людства.

 

Після успішного запуску з космодрому Байконур корабель «Восток-1» благополучно досяг заданої орбіти, але на завершальному етапі не спрацювала система радіоуправління, яка мала вимкнути двигуни третього ступеня ракети. У результаті космічний корабель піднявся на 100 км вище від розрахованої орбіти, тож у разі неспрацювання гальмівної системи сходження з орбіти тільки за рахунок тертя у верхніх шарах атмосфери могло зайняти до 50 днів.

 

На орбіті Гагарін провів найпростіші експерименти: пив, їв, робив записи олівцем. Після того як покладений поруч олівець одразу поплив кудись в умовах невагомості, Гагарін зробив висновок, що предмети в космосі краще прив’язувати. Усі свої відчуття та спостереження він записував на бортовий магнітофон.

 

Коли «Восток-1» здійснив повний оберт навколо Землі, благополучно спрацювала гальмівна установка, але при цьому виникли складнощі з розділенням відсіків, тому протягом 10 хвилин до входу в щільні шари атмосфери корабель безладно крутився. Як тільки вхід здійснився, з’єднувальні кабелі перегоріли, і спускальний апарат нарешті відокремився від приладо-рухового відсіку.

 

Куляста капсула з космонавтом усередині мала зміщений донизу центр тяжіння, тому відразу розвернулася дном униз, і 8-10-разові перевантаження, що виникли при спуску, Гагарін переносив у найбільш зручному положенні — лежачи на спині. Складніше було впоратися з іншим випробуванням — капсула зовні розжарилася до 5 тис. градусів, а сама кабіна почала потріскувати.

 

Через велику швидкість спуску ніхто не міг поручитися за збереження життя космонавта у разі його приземлення в посадковому апараті, тому на висоті 7 км Гагарін катапультувався, як було передбачено планом польоту (цей факт довго приховували, побоюючись, що політ не зарахують як пілотований, оскільки пілота не було всередині корабля при приземленні).

 

У герметичному скафандрі не одразу відкрився клапан, крізь який мало надходити зовнішнє повітря, тому перший космонавт ризикував задихнутися при спуску. Помітивши внизу річку, Гагарін відвів парашут подалі від неї, керуючи стропами. У квітні вода у Волзі ще надто холодна для купання, нехай навіть у космічному скафандрі.

 

На Землі на Гагаріна очікувала всесвітня слава, 12 квітня стало офіційним Днем космонавтики, а спускальний апарат переїхав до музею ракетно-космічної корпорації «Енергія» імені С. П. Корольова.

 

Польоти людини в космос до цього часу служать декільком важливим цілям:

  • Дослідження космосу. Однією з основних цілей польотів у космос було дослідження космічного простору, планет, супутників, зірок та галактик. Польоти з людиною дають змогу збирати дані та проводити експерименти, які неможливо виконати за допомогою автоматичних зондів чи супутників.
  • Технологічні випробування. Польоти в космосі також є платформою для тестування нових технологій та інженерних рішень, які можуть бути корисними в інших галузях, таких як медицина, енергетика й транспорт.
  • Космічні дослідження за умов невагомості. Вивчення впливу невагомості на організм людини та різні матеріали є важливим напрямом у космічних дослідженнях. Польоти в космосі дають змогу досліджувати фізіологічні й біологічні процеси в умовах мікрогравітації.
  • Розвиток космічної інфраструктури. Польоти людини в космос також сприяють розвитку такої космічної інфраструктури, як станції, орбітальні лабораторії, космічні кораблі та ракети, які можуть бути використані для різних цілей, зокрема наукових досліджень та комерційних проєктів.
  • Натхнення та освіта. Космічні польоти надихають людей і мотивують на досягнення високих цілей. Вони сприяють розвитку освіти та науки, привертаючи увагу до важливості досліджень космосу й технологічного прогресу.

У цілому, польоти людини в космос мають безліч практичних, наукових, технологічних і культурних цілей, які сприяють розширенню наших знань про Всесвіт та прогрес людства.

Світлодіодні лампи

У 1907 році британський експериментатор Генрі Раунд вперше виявив та описав світіння, яке виникає на з’єднанні карбіду кремнію (карборунду) з металом при проходженні крізь них електричного струму. Це явище отримало назву «електролюмінесценція», у 1923 році воно було ретельно вивчене фізиком Олегом Лосєвим, який хоч і не дав теоретичного пояснення (поняття «напівпровідниковий перехід» на той момент ще не існувало), але оцінив практичну значущість відкриття.

 

Річ у тім, що ефект електролюмінесценції давав можливість створити малогабаритне джерело світла з дуже низькою для того часу напругою живлення (менше 10 В) та високою швидкодією. У 1927 році Лосєв навіть отримав патент на так зване «світлове реле». Учений помер 1942 року, і його розробки були забуті.

 

Минув час, і в 1962 році американець Нік Голоняк з Іллінойського університету розробив перший у світі практично застосовний напівпровідниковий світловипромінювальний пристрій, через що його називають батьком сучасного світлодіода. До речі, досить поширений термін LED — скорочення, утворене від англійської назви Light Emitting Diodes — світловипромінювальні діоди.

 

У винаході Голоняка, що випромінював видиме світло червоного кольору, використовувався напівпровідниковий сплав фосфіду арсеніду галію (GaAsP). Цей сплав став основою для перших світлодіодів, які масово випускалися компаніями Monsanto та Hewlett-Packard і широко застосовувалися для дисплеїв калькуляторів і наручних годинників.

 

Примітно, що одночасно з червоним світлодіодом Голоняка почалося виробництво інфрачервоного світлодіода на основі арсеніду галію (GaAs), розробленого Джеймсом Байардом та Гарі Піттманом. Саме такого типу світлодіоди нині застосовуються у пультах дистанційного керування.

 

У 1972 році учень Голоняка Джордж Крафорд винайшов перший у світі жовтий світлодіод і збільшив яскравість червоних та червоно-жовтогарячих світлодіодів у 10 разів. А 1976 року ще один американець, Томас Пірсолл, розробив високоефективний світлодіод високої яскравості для передавання даних по волоконно-оптичних лініях зв’язку.

 

Довгий час світлодіоди залишалися дуже дорогими, тому їх практичне застосування було обмеженим. У 1968 році компанія Hewlett-Packard (HP) у співробітництві з компанією Monsanto здійснила справжній технологічний прорив, знизивши собівартість виробництва світлодіодів у тисячу разів. А розроблені в цей період світлодіодні індикатори на основі інтегральної схеми стали проривом у технології цифрових дисплеїв, замінивши собою традиційні до того часу індикаторні неонові трубки Ніксі.

 

У 1971 році Жак Панков і Ед Міллер розробили світлодіод на основі нітриду галію, що випромінював зелене світло. З цього моменту між корпораціями почалася справжня гонка за світлодіодом синього кольору. Річ у тім, що поєднанням світла синього, зеленого і червоного кольорів можна отримати будь-який інший колір та відтінок, зокрема білий. До речі, саме за цим принципом працюють усі сучасні кольорові екрани — від дисплея мобільного телефона до величезних телевізійних панелей. Виробники електроніки були готові витратити мільярди, щоб отримати технологію виготовлення синього світлодіода. Однак минали роки, а його все не було.

 

Лише в 1993 році Сюдзі Накамуре з Nichia Corporation вдалося розробити перший у світі досить ефективний світлодіод синього кольору, що привело до прориву відразу в кількох напрямках: по-перше, на основі синіх світлодіодів удалося створити яскраві та енергозбережні джерела білого світла (саме ті енергозбережні світлодіодні лампи, які витісняють традиційні лампи розжарювання); по-друге, стала можливою технологія світлодіодних дисплеїв, у яких кожною точкою — пікселем — є один або кілька напівпровідникових світлодіодів; по-третє, досить потужні джерела синього світла стали основою такої технології, як Blu-ray, яка замінила такі оптичні носії, як CD і DVD.

 

У 2006 році Накамура за свій винахід був удостоєний однієї з найбільших у світі премій — «Технологія тисячоліття», а в 2014 — Нобелівської премії з фізики. І справді, роль світлодіодів у сучасному світі складно переоцінити. Вони використовуються для освітлення на вулицях та в будинках, споживаючи значно менше енергії. В електронних пристроях світлодіоди можна знайти не тільки у дисплеях з яскравим та чітким зображенням, але й у підсвічуванні клавіатури, індикаторах та інших елементах.

 

З кожним роком усе ширшого застосування набувають світлодіодні фари та ліхтарі на автотранспорті завдяки їхній яскравості, довговічності й енергоефективності. А ще світлодіоди успішно використовуються в рослинництві для штучного освітлення, яке підтримує зростання та розвиток рослин протягом усього року, особливо в умовах суворого клімату та у закритих приміщеннях.

 

Світлодіоди продовжують розвиватися і знаходити нові сфери застосування, а їх значущість у сучасному світі тільки зростатиме в міру поліпшення технологій та розширення спектру їх можливостей.

Супутник ретрансляційного зв’язку Telstar, за допомогою якого вперше було передано телевізійний сигнал

Сучасна телевізійна супутникова антена

Супутники зв’язку та народження супутникового телебачення

У жовтні 1945 року письменник-фантаст Артур Кларк опублікував у британському журналі Wireless World статтю під назвою «Позаземні ретранслятори». У ній автор описував всесвітню систему зв’язку, яка функціонуватиме за допомогою трьох штучних супутників Землі, що знаходяться на рівній відстані один від одного на навколоземній орбіті та ретранслюють радіосигнали.

 

Письменник пояснював, що супутники мають бути розміщені на круговій екваторіальній орбіті, на висоті 36 тисяч кілометрів над Землею, завдяки чому їхній період обертання навколо планети становитиме 24 години, тобто для спостерігача на поверхні Землі супутник залишиться нерухомим, ніби зависне в одній точці неба. Така орбіта згодом отримала назву «геостаціонарна», хоча іноді використовується термін «пояс Кларка», а самого письменника часто називають винахідником концепції супутникового зв’язку. До речі, 1963 року Кларк отримав за це медаль Стюарта Баллантайна, засновану інститутом Франкліна у Філадельфії, міжнародну премію імені Марконі та премію Ліндберґа.

 

Після запуску першого штучного супутника у 1957 році у вчених з’явилася можливість перевірити ідею Кларка на практиці. І вже 18 грудня 1958 року в космос був запущений перший супутник проєкту SCORE, спеціально створений для ретрансляції зв’язку.

 

У цьому супутнику використовувався магнітофон для передавання збереженого голосового повідомлення, а також обладнання для прийому, зберігання та ретрансляції повідомлень. З його допомогою світові було відправлено різдвяне привітання від президента США Двайта Айзенгавера. Крім того, супутник виконав кілька передач у реальному часі, перш ніж 30 грудня 1958 року після восьмої години фактичної роботи його батареї вийшли з ладу.

 

У подальшому супутниковий зв’язок безперервно розвивався, і сьогодні він став незамінним інструментом для глобального зв’язку, навігації, інформування та надання допомоги. А на початку 1960-х можливість передавати радіосигнал за допомогою супутника підкинула інженерам нову ідею.

 

Телебачення, що стрімко набирало популярності у всьому світі, у ті часи мало величезне значення для суспільства, значно впливаючи на культуру, політику, спосіб життя і масову свідомість. Воно було головним джерелом інформації для мільйонів людей у світі: телевізійні новини надавали актуальну інформацію про політичні події, громадські рухи, міжнародні конфлікти та інші події. А передачі та фільми, трансльовані по телебаченню, створювали тренди, впливали на моду, музичні вподобання та суспільні уявлення.

 

Але у віддалених чи географічно ізольованих районах традиційні методи телемовлення часто були недоступними через слабкий чи зовсім відсутній телевізійний сигнал. Для вирішення цієї проблеми могли чудово підійти супутники-ретранслятори, за допомогою яких можна було передавати телесигнал в будь-яку точку земної кулі.

 

Перші сигнали громадського супутникового телебачення були передані з Європи до Північної Америки через американський супутник Telstar 23 липня 1962 року. Запуск цього супутника коштував Сполученим Штатам 6 млн доларів. На той час це були великі гроші. Проєктування та виробництво супутника були виконані в дуже стислі терміни: конструктори взялися за проєкт восени 1960 року, а влітку 1962 року він уже працював на орбіті.

 

Трансльовані передачі тоді переглянули понад 100 мільйонів людей. Однак Telstar літав еліптичною орбітою, і тому міг передавати сигнал лише недовгими сеансами через кожні 3 години. Передачі стали надзвичайно популярними по обидва боки Атлантичного океану, але вже до листопада того ж року супутник вийшов з ладу (найімовірніше, через випромінювання від атмосферних випробувань ядерної зброї, які проводили США та СРСР). Тому 1963 року був запущений Telstar 2, і трансляції відновилися.

 

22 листопада 1963 року вдалося передати телевізійний сигнал із США до Японії через супутник Relay 1 (також з еліптичною орбітою), запущений у грудні 1962 року. Завдяки переміщенню цього супутника небосхилом відеосигнал по черзі пересилався то в Японію, то в Європу. У 1964 році саме цей супутник транслював події Олімпійських ігор у Токіо із США до Європи. З Японії до США сигнал на той час надходив уже через інший супутник — Syncom 3.

 

Першим геостаціонарним супутником, використаним для передавання відео, став супутник зв’язку Syncom 2, запущений 26 липня 1963 року. Його основним призначенням було передавання телефонних переговорів, телетайпу та факсиміле, але також він брав участь в експерименті з передавання відеосигналу, починаючи з 29 вересня 1963 року. Відео при цьому було низької якості й не мало звуку.

 

Проте після експерименту з Syncom 2 розвиток супутникового телебачення пішов гігантськими кроками. 6 квітня 1965 року в космос було відправлено перший комерційний супутник зв’язку Intelsat 1, який розташувався на позиції 28 ° і отримав прізвисько Early Bird (рання пташка). Він був розрахований на експлуатацію протягом 18 місяців, проте відпрацював 4 роки та 4 місяці, передаючи сигнали телебачення, телефонії, факсиміле між Європою та Північною Америкою.

 

У жовтні 1967 року власну мережу ретрансляційних супутників «Орбіта» було створено в СРСР. Апарати, розташовані на еліптичній орбіті, передавали сигнали по черзі, змінюючи один одного. Завдяки їм центральне телебачення поширилося на всю територію країни, навіть до Сибіру і Далекого Сходу.

 

У ті часи існувала єдина схема доставки телекартинки від передавальної станції до екрана телевізора: від передавача сигнал йшов на супутник і ретранслювався звідти на локальні приймальні станції, після чого передавався з місцевих ретрансляторів на побутові телеприймачі.

 

У 1972 році Чарлз Долан і Джеральд Левін заснували компанію HBO (скорочення від Home Box Office — домашня театральна каса), яка надавала послуги платного кабельного телебачення. Ця компанія використовувала супутникові ретранслятори для поширення телепрограм на віддалені головні станції кабельного телебачення.

 

У той же період визначилися і провідні виробники обладнання (зокрема і самих супутників) для забезпечення трансляцій телесигналу. Ними стали Hughes Space & Communications, Lockheed Martin та Loral Space & Communications. На даний момент більшість супутникових систем телебачення у світі побудували саме вони.

 

У 1976 році професор Стенфордського університету та колишній співробітник NASA Генрі Тейлор Говард у власному гаражі у вільний від роботи час зібрав комплект обладнання, здатного приймати телевізійне зображення, призначене для кабельних операторів, безпосередньо зі супутника (пізніше цей спосіб приймання-передавання сигналу отримав назву Direct-To-Home, або DTH). Для досягнення своєї мети він використовував деталі від мікрохвильової печі, пральної машини та іншої побутової техніки. Певний час винахідник абсолютно безкоштовно дивився вдома канали тієї ж НВО, але врешті-решт вирішив надіслати в офіс компанії інформацію про своє відкриття та чек на сто доларів як оплату за перегляд каналів.

 

НВО чек повернула, а винахідливий професор у 1980 році створив компанію Chapparal Communication з виробництва та продажу обладнання для перегляду супутникових каналів. Попри те, що комплект такого обладнання коштував $10 000, а розмір приймальної антени-тарілки був від двох до п’яти метрів у діаметрі, справи дуже скоро пішли вгору.

 

Секрет успіху полягав не тільки в тому, що власник такого супутникового приймача міг безкоштовно дивитися близько сотні різних каналів одразу від кількох постачальників, але й у відчутно кращій якості зображення через відсутність посередника — кабельного оператора.

 

Незабаром завдяки масовості продажів Chapparal Communication знизила ціну обладнання до $3000, що зробило її продукцію ще більш доступною. Ситуація, що склалася, нагадувала нинішній стан справ із платним відеоконтентом в Інтернеті: з приблизно двох мільйонів абонентів супутникового телебачення легально дивилися і платили за послуги менше 500 000 користувачів. Для боротьби із цим явищем власники кабельних мереж почали кодувати сигнал, через що зображення і звук йшли з супутників у непридатному для перегляду без спеціального декодера форматі.

 

Тим часом одразу кілька компаній у США почали передавати сигнали з супутника безпосередньо глядачеві, без участі кабельних операторів. Перша компанія міжнародного супутникового мовлення без використання кабельних мереж PanAmSat з’явилася в 1983 році. Особливо популярними її послуги були у віддалених куточках, де були недоступними блага цивілізації: величезні тарілки для прийому супутникового сигналу часто стояли на дахах заміських мотелів та будинків фермерів.

 

Незабаром на зміну стандарту DTH було запропоновано інший метод прямого супутникового мовлення — технологія DBS (Direct Broadcast Satellite). Новинка передбачала використання потужніших ретрансляторів на супутниках, що дозволило скоротити розмір круглої приймальної антени до 45 см в діаметрі.

 

Ця антена безпосередньо підключалася до ресивера, що розкодовував сигнал за допомогою картки, яка в нього вставлялася. Вартість обладнання, яке можна було встановити практично будь-де, було включено в абонентську плату. Кодування сигналу, заборонні закони і буквально полювання на виробників кустарних декодерів дали необхідний результат: до початку 1990-х піратський перегляд супутникових каналів практично припинився, так само як і випуск обладнання для нього.

 

У 1990-ті на ринку супутникового телебачення з’явилися нові оператори, які досі займають провідні позиції в цьому сегменті бізнесу. У 1994 році, випередивши найближчого конкурента з Європи на два роки, розпочала мовлення компанія Primestar, утворена групою операторів кабельних мереж. На початковому етапі в її розпорядженні було 30 аналогових супутникових каналів, які після перетворення стали першою у світі цифровою системою безпосереднього мовлення. Потужні передавачі на супутниках компанії давали змогу ретранслювати з кожного по три-шість каналів, що на ті часи було великим досягненням.

 

У період свого розквіту Primestar пропонувала до перегляду 160 каналів та обслуговувала понад 2 млн американських передплатників. У 1999 році Primestar була поглинена іншим гігантом супутникового телебачення — DirecTV (до речі, вони почали роботу практично одночасно).

 

DirecTV була дочірнім підприємством виробника обладнання для супутників Hughes Communications, і саме вони доклали левову частку зусиль для популяризації стандарту DBS. Комплект обладнання для перегляду DirecTV коштував близько $100, можна було переглядати до 200 каналів за помірну абонентську плату. До минулого року компанія була найбільшим оператором прямого супутникового телерадіомовлення в США та обслуговувала ще й Латинську Америку, довівши кількість своїх передплатників до 20 млн.

 

2014 року DirecTV стала власністю корпорації AT&T. Сума угоди становила $48,5 млрд.

 

З іншого боку Атлантики з початку 1990-х тон задавала British Sky Broadcasting (BSkyB). Її супутники вперше на континенті стали передавати кодований сигнал 1991 року. До 2003 року у BSkyB було близько 7 млн передплатників, а після купівлі у 2010 році найближчого конкурента Virgin Media їхня кількість перевалила за 10 млн.

 

Величезною перевагою супутникового телебачення є його глобальність: де б не знаходився телеглядач, він завжди може налаштуватися хоча б на один супутник. І часто цього цілком достатньо, щоб обрати кілька телевізійних каналів до душі.

Перший високошвидкісний потяг

Сучасний високошвидкісний потяг

«Швидкісні перегони» на залізниці

Залізниці були першою формою швидкісного наземного транспорту і до початку XX століття, до появи автомобілів та літаків, просто не мали конкуренції у перевезенні пасажирів на далекі відстані.

 

 

Важливим фактором для залізниць завжди була швидкість, адже саме завдяки вищим швидкостям можна було скоротити час у дорозі. Незабаром після відкриття громадських залізниць почалася «гонитва за швидкістю». 1829 року паровоз «Ракета» досяг швидкості 38,6 км/год (за іншими даними — 46,7 км/год), що на той час було світовим рекордом.

 

А десять років по тому, у вересні 1839 року, паровозом «Ураган» на британській залізниці «Грейт Вестерн» був подоланий швидкісний рубіж у 160,9 км/год (100 миль/год). Планка в 200 км/год була взята 6 жовтня 1903, за місяць до першого польоту літака — на тестовій лінії в передмісті Берліна експериментальний електровагон фірми Siemens & Halske показав швидкість 206 км/год. А менше як за місяць, 28 жовтня, уже інший електровагон фірми AEG розігнався до 210,2 км/год. Ці прототипи продемонстрували можливість створення високошвидкісної електричної залізниці, проте до регулярних поїздок на швидкісних електропоїздах залишалося ще понад 30 років.

 

Довгий час саме інфраструктура, особливо її вартість, перешкоджала впровадженню високошвидкісних залізниць. Сталося кілька катастроф — потяги сходили з рейок, стикалися з транспортними засобами на переїздах і навіть із зустрічними потягами на одноколійних лініях. Фізичні закони були добре відомі: якщо швидкість збільшити вдвічі, радіус повороту має збільшитись у чотири рази; те саме стосувалося прискорення і гальмівного шляху.

Одначе, для багатьох інженерів високошвидкісні залізниці залишалися бажаною метою, тому амбітні проєкти регулярно з’являлися в багатьох країнах.

 

Попри численні розробки в Європі та Америці, перша високошвидкісна громадська залізниця з’явилася на іншому кінці земної кулі — в Японії. У цій країні в середині 1950-х років різко загострилася транспортна ситуація вздовж східного узбережжя острова Хонсю, що було пов’язано з високою інтенсивністю пасажироперевезень між найбільшими містами країни, особливо між Токіо та Осакою. Використовуючи переважно іноземний досвід, адміністрація японських залізниць за досить короткі терміни (з 1956 до 1958 року) створила проєкт високошвидкісної залізниці між цими двома містами. Будівництво розпочалося 20 квітня 1959 року, а запуск в експлуатацію відбувся 1 жовтня 1964 року, саме напередодні Олімпійських ігор у Токіо.

 

Дорозі дали назву «Токайдо», протяжність траси становила 515,4 км, а максимальна допустима швидкість потягів — 210 км/год. Вона швидко завоювала популярність у населення, про що, наприклад, свідчить приріст обсягу виконаних на лінії пасажирських перевезень. Примітно, що вже 1971 року дорога повністю окупила витрати на будівництво.

 

У Європі високошвидкісна залізниця з’явилася після того, як 1966 року міністр інфраструктури Франції Едґар Пізані проконсультувався з інженерами і дав Французьким національним залізницям дванадцять місяців на підвищення швидкості до 200 км/год. Для цього було обрано класичну лінію Париж — Тулуза. У травні 1967 року було відкрито регулярне сполучення на ділянці протяжністю 713 км, середня швидкість потягів становила 119 км/год.

 

Примітно, що приблизно у цей час прототип Aérotrain I80HV з реактивним двигуном на експериментальній магістралі зміг розвинути швидкість 345 км/год. У 1969 році він розігнався уже до 422 км/год, а 5 березня 1974 року повномасштабний комерційний прототип Aérotrain I80HV досяг 430 км/год.

 

У США залізничне сполучення Metroliner з максимальною швидкістю 200 км/год відкрилося 1969 року між Нью-Йорком, Філадельфією та Вашингтоном.

 

З часом високошвидкісні потяги безперервно удосконалюються. Для поліпшення аеродинамічних показників виготовляється обтічна форма передньої частини та мінімальна кількість виступаючих елементів уздовж вагонів. При цьому такі елементи (наприклад, струмоприймачі) обладнуються обтічними кожухами, а підвагонне обладнання закривається спеціальними щитами. Завдяки такому комплексу заходів заразом знижується аеродинамічний шум, тобто потяг рухається тихіше.

 

Для зниження навантаження від коліс на рейки інженери використовують алюмінієві сплави й пластики. Крім того, досліджувалися можливості застосування замість моторної тяги колісних пар турбогвинтових та турбореактивних двигунів, як на літаках.

 

Окрім цього, велика увага приділялася вдосконаленню залізничних магістралей — згодом вони ставали дедалі міцнішими завдяки впровадженню нових технологій і матеріалів.

 

Для того щоб узагалі позбутися колісного тертя, тобто змусити потяг висіти над коліями, були навіть розроблені потяги на повітряній подушці. Утім, у масову експлуатацію їх не запустили. Зате дуже перспективним напрямком є потяги з електродинамічною підвіскою на надпровідних магнітах — так звані маглеви (скорочення від «магнітна левітація»). Нині в Японії існує потяг JR-Maglev (Сінкансен L0), здатний розвивати максимальну швидкість понад 600 км/год!

 

Високошвидкісні залізниці є важливою складовою розвитку транспортної інфраструктури, яка має значний вплив на економіку, довкілля та суспільство в цілому. Завдяки розвитку нових технологій, розширенню мережі маршрутів, інтеграції з іншими видами транспорту та зниженню впливу на довкілля, цей вид транспорту ставатиме все більш масовим і поширеним.

Кварцовий годинник як еталон часу

На початку XX століття радіоінженери шукали точне та стабільне джерело радіочастот, тобто пристрій, який можна було б використовувати як шаблон для налаштування радіопередавачів та приймачів. Для цього були створені сталеві резонатори. Однак у 1921 році Волтер Ґайтон Кеді вирішив використовувати кварц — діоксид кремнію, що є одним із найпоширеніших на Землі мінералів. Незабаром створені Кеді кварцові резонатори стали широко використовуватися на радіостанціях як елементи, що задають несучу частоту, і повністю витіснили сталеві.

 

Річ у тім, що в 1880 році брати Жак і П’єр Кюрі відкрили п’єзоелектричний ефект: коли кристал кварцу піддається механічному впливу, наприклад, згинанню, він накопичує електричний заряд у деяких площинах; і навпаки, якщо заряди розмістити впоперек площини кристала кварцу, то кристал буде згинатися.

 

Важливо, що кварц може безпосередньо приводиться в рух (згинатися) електричним сигналом, тому його використання в резонаторі не потребує ніякого додаткового перетворювача. Іншими словами, для кварцового резонатора потрібно значно менше обладнання, ніж для сталевого. А ще кристал кварцу практично не змінює своїх розмірів при зміні температури (до речі, з цієї причини лабораторний посуд часто роблять із розплавленого кварцу). Завдяки цій властивості резонансна частота кварцової пластини залежно від її розміру не буде незначно підвищуватися або знижуватися.

 

Через деякий час учені з Національного бюро стандартів США виявили, що кварцовий генератор може бути точнішим, ніж маятниковий годинник. Маятникові хронометри хоч і використовувалися як еталони часу в різних метрологічних організаціях, але були досить вимогливими до умов навколишнього середовища. Наприклад, найменша зміна вологості або температури повітря могла впливати на похибку вимірювання часу, тоді як частота коливань кристала кварцу залишалася стабільною.

 

У 1923 році англійці Девід Дай та Воррен Маррісон розробили послідовності точних сигналів часу за допомогою кварцових генераторів. А в жовтні 1927 року той же Маррісон створив перший кварцовий годинник, який був розміром з кімнату. У цьому годиннику використовувався кристалічний блок, стимульований електрикою, для генерації імпульсів із частотою 50 тисяч циклів на секунду. Ці імпульси перетворювалися на електричний сигнал, який приводив у дію синхронний електродвигун, за допомогою якого переміщувалися стрілки.

 

У наступні три десятиліття були розроблені інші зразки кварцових годинників, і з 1940-х років вони лягли в основу точних вимірів часу й частоти в усьому світі. Але громіздка та крихка електроніка, побудована на електронних лампах, дозволяла використовувати їх лише в лабораторних умовах.

 

Для ширшого застосування кварцового годинника довелося чекати розробки дешевої напівпровідникової цифрової логіки в 1960-х роках. У 1964 році на літніх Олімпійських іграх в Токіо портативний кварцовий годинник Seiko Crystal Chronometer QC-951 використовувався як резервний таймер під час марафонських забігів. У 1966 році компанії Seiko і Longines представили перший у світі кишеньковий кварцовий годинник. А в 1967 році з’явився наручний годинник. На Міжнародному конкурсі годинників в обсерваторії Невшателя одразу дві компанії презентували свої розробки: швейцарський Центр електронного годинникового мистецтва (CEH) з моделлю Beta 1 та японська Seiko з моделлю Astron.

 

У продажу наручні кварцові годинники з’явилися в грудні 1969 року. Японці лише на кілька місяців випередили конкурентів зі Швейцарії, випустивши на ринок Seiko Quartz-Astron 35SQ, і таким чином закріпили за собою першість у цьому напрямку. Ці девайси були досить дорогими і продавалися як товар класу люкс. Вони забезпечували точність до 0,2 секунди на день — неймовірне на ті часи значення для наручного годинника.

 

Згодом висока точність і низька собівартість виробництва привели до поширення кварцових годинників у всьому світі.

 

Мабуть, варто згадати, що в короткий період між 1950-ми роками, коли безроздільно царювали механічні годинники, і початком 1970-х, коли на трон зійшли нові королі точності — кварцові годинники, зійшла і зникла нова зірка — камертонні годинники. У той час як інші компанії шукали спосіб створення масового кварцового годинника, компанія Bulova вирішила піти альтернативним шляхом.

 

Швейцарський інженер Макс Хетцель, який працював у цій компанії, у квітні 1952 року припустив, що нещодавно винайдений транзистор буде ключовим компонентом для майбутнього електронного годинника. А для відліку часу в парі з транзистором він вирішив використовувати камертон — знайомий усім з уроків фізики пристрій у вигляді виделки з двома зубцями, який є еталоном висоти звуку або, іншими словами, вібрує з певною частотою.

 

У 1955 році був виготовлений перший прототип годинникового механізму, 1959 року була завершена розробка моделі Accutron 214, а ще через рік ці годинники надійшли в продаж. Вони забезпечували точність близько двох секунд на добу — відмінний результат для наручного годинника того часу. Назва Accutron була утворена від accuracy— точність і electronic — електронні, і саме в цих наручних годинниках вперше замість заводного механізму використовувалася батарейка, як згодом у кварцових годинниках. А зображення камертона використовується як логотип компанії Bulova до цього дня.

 

Але повернемося до кварцового годинника. У 1971 році компанія Girard-Perregaux представила годинниковий механізм із заявленою точністю близько 0,164 секунди на день, який мав кварцовий генератор із частотою 32 768 Гц. Саме ця частота коливань дотепер є стандартною для більшості кварцових годинників. Річ у тім, що така частота дорівнює 2¹⁵, і якщо просто ділити її на парні числа, можна найбільш зручним чином отримати сигнал з частотою 1 Гц — тією самою, з якою рухається секундна стрілка.

 

У 1970-х роках з’явився перший електронний кварцовий годинник. На відміну від звичного аналогового, у якому для відображення часу використовувалися стрілки, в електронному застосовувалися нещодавно винайдені рідкокристалічні дисплеї (світлодіодні використовували досить рідко через порівняно високі витрати заряду батареї). Ці інновації робили кварцові годинники ще більш привабливими для масового ринку. Примітно, що водночас у метрологічних лабораторіях на зміну кварцовим хронометрам прийшли точніші атомні годинники.

 

До 1980-х років кварцова технологія вже використовувалася в кухонних таймерах, будильниках, замках банківських сховищ із визначеним часом відкриття, у програмованих підривниках та інших сферах, пов’язаних із відліком часу.

 

Відсутність рухомих частин і значно нижча чутливість до перешкод і зовнішніх впливів, таких як магнетизм і удари, виключає необхідність періодичного обслуговування кварцових годинників, що дає їм значну перевагу над механічними хронометрами. А в поєднанні з високою точністю, надійністю і низькою ціною кварцові годинники взагалі виграють за всіма показниками. Сьогодні механічний наручний годинник — це більше символ інженерного мистецтва і предмет розкоші, ніж практичний аксесуар.

 

Кварцовий годинник — це не лише сьогодення, а й майбутнє світової годинникової промисловості. Технологія в своїй основі настільки вдала, проста і відпрацьована, що ні найближчими роками, ні найближчими десятиліттями ніякої альтернативи для неї просто не передбачається. Поодинокі моделі атомних наручних годинників — це технічні дива, надто дорогі та складні для повсякденного застосування.

 

Буде вдосконалюватися форма, розроблятися новий дизайн, більше здешевлюватиметься виробництво, але кристал кварцу як був, так і залишиться основою для найпоширеніших у світі хронометрів.

Перший ігровий джойстик

Сучасний ігровий джойстик

«Паличка Джойса», або важіль управління елеронами та кермами висоти

На зорі літакобудування конструктори придумали важіль управління елеронами та кермами висоти. Уперше такий важіль з’явився на літаку Bleriot VIII 1908 року конструкції Луї Блеріо. Уперше назвав цей важіль джойстиком пілот Роберт Лорейн у своїх записах, присвячених навчанню у школі пілотів. За однією з версій, така назва з’явилася на честь льотчика-аса Джеймса Генрі Джойса — «Джойс-стік», тобто «паличка Джойса».

 

У 1926 році в дослідній лабораторії ВМС США було винайдено та запатентовано перший електричний двовісний джойстик, який призначався для дистанційного управління літаком. Приблизно в 1944 році німці почали використовувати джойстики для наведення протикорабельних ракет з бомбардувальників, а пізніше — для перехоплення повітряних цілей ракетою класу «земля-повітря».

На початку 1960-х джойстики почали застосовувати в радіокерованих моделях літаків, а також в інвалідних візках з електроприводом. У цей же період NASA використовувало їх для управління експериментальними моделями місячного корабля місії «Аполлон».

 

У 1967 році Ральф Генрі Байєр створив джойстик для відеоігор, за допомогою якого можна було керувати горизонтальним і вертикальним положенням плями, відображеної на екрані. Через два роки, в 1969 році, компанія Sega випустила перший ігровий джойстик з кнопкою вогню спеціально для аркадної гри Missile, у якій він використовувався для наведення ракети на літак на екрані. У 1970-х джойстики все частіше застосовувалися в різних ігрових автоматах або домашніх ігрових консолях, але це були прості аналогові пристрої з однією-двома кнопками.

 

Еволюція ігрових джойстиків розпочалася наприкінці 1980-х. У цей час вони стали більш ергономічними та функціональними, отримали додаткові кнопки та осі, що дало гравцям змогу точніше управляти персонажами чи об’єктами. У 1990-х з’явилися перші джойстики з вібрацією, що додало в ігровий процес тактильні відчуття.

 

Початок XXI століття ознаменувався ерою 3D-графіки у відеоіграх.

 

У 2010-х роках джойстики стали бездротовими, використовуючи Bluetooth або Wi-Fi для підключення до ігрових пристроїв. Також з’явилися інноваційні пристрої, такі як джойстики із сенсорними екранами або пристрої віртуальної реальності, які дозволяють занурюватися в ігровий світ ще глибше.

 

Сучасні ігрові джойстики можуть інтегруватися з іншими пристроями та технологіями, такими як смартфони, комп’ютери та розумні телевізори. Вони також часто мають регульовані кнопки та налаштування, даючи змогу гравцям адаптувати пристрої під свої уподобання та стилі гри.

 

Процес удосконалення ігрових джойстиків триває і нині, оскільки технології розвиваються, а ігрова індустрія стає все більш інноваційною і різноманітною.

Дискети й дисководи

У 1960-х роках виробники обчислювальних машин використовували твердотільну транзисторну пам’ять, уміст якої втрачався при відключенні комп’ютера. Тому гостро постало питання способу швидкого завантаження програмного забезпечення після запуску комп’ютера. Традиційні перфокарти та котушки з магнітною стрічкою, які використовувалися для цього, були надто громіздкими та повільними.

 

У 1967 році невелика команда інженерів експериментального цеху IBM під керівництвом Девіда Нобля почала працювати над надійною і недорогою завантажувальною системою. Як відомо, усе нове — це добре забуте старе. Й іноді, щоби вигадати щось нове, дуже корисно зазирнути в минуле. Ось і цього разу, подумавши над поставленим завданням, команда вирішила об’єднати найефективніший на той момент засіб завантаження даних — магнітну стрічку — з носієм даних із минулого: грамплатівкою.

 

У результаті вийшов диск, який вставлявся в механізм дисковода і обертався на шпинделі, подібно до платівки, але дані на нього записувалися так само, як на магнітну стрічку. Гнучкий майларовий диск діаметром 8 дюймів (близько 20 см) містив 80 кілобайт даних, замінюючи собою близько тисячі перфокарт. Його недоліком було те, що диск легко забруднювався, що ускладнювало зчитування даних. Тому розробники помістили його у пластиковий чохол із тканиною всередині, яка зчищала пил при обертанні.

 

А зчитування даних із диска відбувалося крізь невеликий проріз у цьому чохлі. Пристрій отримав назву «дискета» (від англійського diskette — невеликий диск) або «флопі-диск» (від англійського floppy disk — у буквальному перекладі «гнучкий диск»; дисковод з тієї ж причини часто називали флопіком). Ідея була настільки інноваційною для того часу, що журнал ComputerWorld описував дискету як «аркуш із магнітної плівки».

 

У продаж перші дискети та дисководи надійшли 1971 року, а патент на них компанія IBM отримала 1972-го. Завдяки впровадженню інновацій вдалося збільшити обсяг даних на дискетах утричі — майже до 250 кілобайт, тому одна дискета могла замінити вже 3000 перфокарт! У результаті IBM відмовилася від подальшого застосування технології перфокарт, які до цього протягом понад пів століття — аж від 1911 року — були ключем до успіху цієї компанії.

 

Вартість 8-дюймових дисководів була досить високою, і IBM спочатку взагалі не розглядала дискети як засіб зберігання даних для персональних комп’ютерів. Однак у 1973 році Алан Шуґарт, який був одним із винахідників дискети, заснував власну фірму Shugart Technology і вже у 1976 році представив дискети діаметром 5¼ дюйма та відповідні дисководи для них.

 

Такі дискети зберігали 98,5 кілобайт (пізніше до 110 за рахунок додаткових доріжок) і були значно дешевшими за 8-дюймові, завдяки чому швидко завоювали популярність серед власників персональних комп’ютерів. І хоча касетні дисководи все ще використовувалися в недорогих домашніх комп’ютерах аж до кінця 1990-х, уже до кінця 1970-х років гнучкі диски стали стандартом комплектування для перших ПК, орієнтованих на бізнес.

 

Тим часом дискети продовжували удосконалюватися. І в 1981 році компанія Sony представила дискету розміром 3½ дюйми (90 мм). На відміну від попередників, які зовні були схожі на своєрідний плаский конверт, новинка мала досить товстий пластиковий корпус, тому наочно переконатися, що диск і справді гнучкий, можна було лише розібравши його. Спочатку 3½-дискета вміщала 720 кілобайт, але у пізніших виконаннях її обсяг становив уже 1,44 мегабайта.

 

Незабаром флоппі-диски стали повсюдно використовуваним предметом і символом технологічності та інновацій. Ураховуючи, що в 1980-х та переважній більшості 1990-х Інтернету ще не було (та чого вже там, у багатьох місцях Інтернет був дивиною до середини 2000-х), дискети виявилися єдиним і безальтернативним засобом обміну даними між комп’ютерами. Такий спосіб передавання інформації іронічно називали «флопінет». Удома чи на роботі у кожного було особисте резервне сховище даних у вигляді пластмасових коробочок із дискетами, кожна з яких містила на етикетці назву вмісту.

 

Мабуть, на окрему згадку заслуговують дискети, які використовувалися розробниками відеоігор для поширення своїх проєктів. З фірмовим нанесенням назв DOOM або Prince of Persia, сьогодні вони є рідкісними колекційними предметами.

 

Фірми-виробники випускали дискети десятками та сотнями мільйонів, а їх кількість у світі обчислювалася мільярдами. Саме тоді зображення дискети назавжди закріпилося в графічному інтерфейсі програм на позначення кнопки збереження даних на диск. Крім того, дискети знайшли своє відображення і в поп-культурі того часу. Наприклад, у фільмах 1990-х можна побачити, як герої полюють за дискетою, що містить зловісний супервірус, здатний знищити всі досягнення цивілізації. Здавалося б — усього якихось півтора мегабайти даних.

 

Наприкінці 1990-х з масовим поширенням оптичних приводів (спочатку CD, а потім і DVD), час дискет добігав кінця. А в середині 2000-х з’явилися перші USB-флеш-накопичувачі, які остаточно вирішили долю флопі-дисків. Однак навіть після цього виробники ще якийсь час продовжували оснащувати комп’ютери «флопіками», оскільки традиційно на цьому носії постачалися оновлення для BIOS та драйвери для периферійних пристроїв.

 

Першим від цього формату відмовилися в Apple. iMac, який вийшов у 1998 році, вперше в історії не мав приводу для дискет.

 

У березні 2011 року компанія Sony, яка запровадила формат 3½-дюймових флопі-дисків, припинила їх виробництво та продаж. А в жовтні 2014 року компанія Toshiba перепроєктувала свій завод із виробництва дискет на овочеву ферму. У 2016 році останні дискети все ще продовжували випускати фірми Verbatim, TDK, EMTEC та Imation на єдиному тайванському заводі, але незабаром і це виробництво закрилося.

 

Примітно, що дискети використовували для завантаження програмного забезпечення на літаки Boeing 747-400 аж до їх виведення з експлуатації в 2020 році. А ще в 2019 році деякі системи ядерної зброї США і взагалі використовували в роботі перші 8-дюймові дискети. Причина полягає в тому, що це надійна та відома технологія, яка застосовується у надважливих системах. Не можна вносити до них зміни, не створюючи потенційної загрози життю.

 

У будь-якому разі дискети відіграли важливу роль упродовж пів століття своєї історії.

Мікропроцесори

У 1971 році корпорація Intel здійснила справжній переворот у комп’ютерній сфері. Як це часто буває, сталося це випадково. Японська компанія Busicom, яка випускала калькулятори, замовила Intel виготовлення 12 мікросхем для своїх виробів. При цьому особливістю замовлення було те, що мікросхеми призначалися для різних калькуляторів і мали бути теж різними.

 

Замовлення було надто дрібним навіть за мірками малого бізнесу, тому фахівці вирішили зробити універсальну мікросхему, яка б підійшла до всіх моделей калькуляторів. Так було створено перший у світі мікропроцесор С4004. Лінощі вкотре виступили двигуном прогресу…

 

Перший мікропроцесор використав двійково-десяткову арифметику 4-бітових символів. Незабаром його почали використовувати не тільки для калькуляторів, але й для інших пристроїв, наприклад, принтерів та різної автоматики.

 

Через рік фахівці Intel створили складніший 8-розрядний мікропроцесор із 16-бітною адресацією, який став основою перших масових персональних комп’ютерів — насамперед компанії СТС, яка наприкінці 1972 року була перейменована на Datapoint. Епоха ПК, які займали кілька кімнат, добігла кінця.

 

Примітно, що перше використання терміна «мікропроцесор» приписують компанії Viatron Computer Systems, яка презентувала спеціальну інтегральну схему, використану в їхній невеликій комп’ютерній системі System 21, анонсованій у 1968 році, тобто назва з’явилася раніше за сам пристрій.

 

Довгий час центральні процесори створювали з окремих мікросхем, що містили від кількох одиниць до кількох сотень транзисторів. Згодом удалося значно вдосконалити технологію виробництва та суттєво знизити вартість процесорів. Безперервне збільшення складності мікропроцесорів привело до майже повного застарівання інших форм комп’ютерів.

 

Примітно, що у 1965 році директор з досліджень та розробок компанії Fairchild Semiconductor у своїй статті, присвяченій ювілейному випуску журналу Electronics, висловив припущення, що складність мікросхем із кожним роком збільшуватиметься приблизно вдвічі, і до 1975 року можна буде розмістити на одному напівпровіднику площею чверть квадратного дюйма до 65 тисяч компонентів. Це спостереження, яке отримало назву «закон Мура», добре описувало збільшення потужності мікропроцесорів у кілька перших десятиліть. Однак за нинішніх технологій темпи дещо знизилися і подвоєння відбувається не щорічно, а приблизно раз на два роки.

 

Хай там як, на зміну 16-бітовим процесорам прийшли 32-бітові, а потім з’явилися 64-бітові, після чого тактові частоти мікропроцесорів досягли межі через бар’єр розсіювання тепла. І тоді виробники пішли на хитрість: замість того щоб розробляти складні й дорогі системи охолодження, вони звернулися до паралельних обчислень у вигляді багатоядерних процесорів. Після цього розвиток мікропроцесорів пішов шляхом зменшення розмірів, при цьому кількість транзисторів у них збільшилася приблизно в 10 разів!

 

Сьогодні один або кілька мікропроцесорів використовуються як обчислювальний елемент у всьому — від найдрібніших вбудованих систем і мобільних пристроїв до величезних мейнфреймів і суперкомп’ютерів. Мікропроцесори відіграють важливу роль у космічних дослідженнях і місіях, де потрібна надійна та високопродуктивна обчислювальна техніка для виконання складних завдань.

 

Тим часом триває безперервне вдосконалення мікропроцесорів, пов’язане зі збільшенням їхньої продуктивності та зменшенням енергоспоживання, завдяки чому вони стають більш автономними й ефективними. Мікропроцесори продовжують впроваджуватись у нові технології, такі як штучний інтелект, машинне навчання, розподілені системи та квантові обчислення, забезпечуючи підтримку нових можливостей та додатків.

Дві точки плавлення похідних холестерину та рідкокристалічні технології

У 1888 році австрійський ботанік Фрідріх Рейнітцер, досліджуючи фізико-хімічні властивості різних похідних холестерину, виявив, що холестерилбензоат плавиться не так, як інші сполуки, а має дві температури плавлення. При 145,5 °C він перетворюється на каламутну рідину, а при 178,5 °C знову плавиться і стає прозорим. При зниженні температури процес відбувався у зворотному напрямку: спочатку рідина ставала каламутною, а потім тверділа.

 

Варто зазначити, що раніше багато дослідників спостерігали колірні зміни при охолодженні похідних холестерину трохи вище за точку замерзання, але не надавали цьому особливого значення. Рейнітцер зрозумів, що колірні ефекти пов’язані з виявленим ним явищем. Намагаючись пояснити своє відкриття, учений написав листа фізику Отто Леманну. Той дослідив проміжну каламутну рідину і повідомив, що бачив кристаліти — мікроскопічні кристали, які утворюються, коли молекули вишиковуються у певному напрямку.

 

Таке спостереження не пояснювало досліджуваного явища, а лише викликало нові запитання.

 

Сам Рейнітцер виявив та описав три важливі особливості свого відкриття:

  • існування двох точок плавлення;
  • відбиття циркулярно поляризованого світла;
  • здатність обертати напрямок поляризації світла.

З першим пунктом все більш-менш зрозуміло, але два інших хотілося б прояснити. Якщо говорити дуже просто, то така рідина відбивала світло особливим чином — у вигляді райдужних плям, приблизно як на поверхні мильних бульбашок. А ще ця рідина по-різному пропускала світло крізь себе, а за деяких умов і зовсім його не пропускала.

 

Результати спостережень Рейнітцер представив на засіданні Віденського хімічного товариства 3 травня 1888 року. Після цього подальші дослідження розпочав Леманн, який зрозумів, що зіткнувся з новим явищем. Він мав можливість проводити спостереження в поляризованому світлі, а його мікроскоп був обладнаний гарячим столиком (тримачем зразків, укомплектованим нагрівачем), і це давало змогу проводити спостереження при високих температурах. Проміжна каламутна фаза явно підтримувала текучість, але інші особливості, зокрема видимість під мікроскопом, переконали Леманна, що він має справу з твердим тілом. До кінця серпня 1889 року він опублікував свої результати в Zeitschrift für Physikalische Chemie.

 

Було зрозуміло, що рідкі кристали (таку назву вигадав Отто Леманн в 1904 році) є особливим станом речовини, властивості якої перебувають між звичайними рідинами і твердими кристалами. Наприклад, рідкий кристал може текти як рідина, але його молекули можуть бути орієнтовані в одному напрямку, як у твердому тілі.

 

Роботу Леманна продовжив і значно розширив німецький хімік Даніель Форлендер, який від початку XX століття до виходу на пенсію в 1935 році синтезував більшу частину відомих рідких кристалів. Однак вони не були популярні серед учених, і близько 80 років цей матеріал залишався суто науковою дивиною.

 

У 1927 році фізик Всеволод Костянтинович Фредерікс виявив, що коли до рідкого кристала прикласти досить сильне магнітне або електричне поле, то молекули в ньому вишиковуються в певному напрямку — уздовж магнітних ліній поля. Цей ефект, на якому заснована вся сучасна рідкокристалічна технологія, отримав назву «перехід Фредерікса».

 

1962 року доктор Джордж У. Ґрей опублікував першу велику працю «Молекулярна структура та властивості рідких кристалів». Того ж року фахівець американської корпорації з виробництва електроніки RCA Пол Веймер розробив тонкоплівковий транзистор (TFT) — саме завдяки цій технології стала можливою поява всіх сучасних РК-телевізорів, моніторів, екранів планшетів та смартфонів.

 

До речі, ідею створення рідкокристалічного дисплея (РКД або LCD в англійському варіанті) на основі TFT запропонував у 1968 році колега Веймера Бернард Лехнер, проте реалізувати цю технологію на практиці вдалося лише згодом: перший рідкокристалічний дисплей на тонкоплівкових транзисторах (TFT) був представлений тільки 1973 року. Довести технологію до досконалості змогли лише в XXI столітті: на сьогодні у всіх сучасних електронних візуальних пристроях високої роздільної здатності та якості використовуються дисплеї з активною матрицею на основі TFT.

 

4 грудня 1970 року компанія Hoffmann-LaRoche зі Швейцарії спільно з Вольфгангом Хелфріхом та Мартіном Шадтом відкрили ефект закрученого нематику (TN-ефект), що стало головним технологічним проривом на шляху створення РК-дисплея. По суті, цей девайс є своєрідним сендвічем із двох тонких поляризованих стекол, між якими міститься рідкий кристал. При подаванні напруги мікроскопічні ниткоподібні кристалики (нематики, від грецького nēma — нитка) повертаються, перестаючи пропускати світло. Якщо напругу прибрати, нематики повертаються у вихідне положення, і світло знову вільно проходить крізь скло.

 

Коли ми дивимося на дисплей електронного годинника, ми бачимо світло, відбите від внутрішньої поверхні екрана. А в комірках, на які подається струм, світло не пропускається, тому утворюються темні палички, із яких складаються цифри. Деякі виробники для покращення відображення використовують внутрішнє підсвічування — у цьому випадку цифри на дисплеї видно навіть у темряві.

 

TN-коміркам для роботи не потрібне постійне подавання струму, вони використовують низьку робочу напругу — вистачає навіть мініатюрних батарейок.

 

У 1971 році почалося масове виробництво рідкокристалічних дисплеїв, які завдяки низькому енергоспоживанню досить швидко витіснили інші поширені для більшості електронних пристроїв технології, такі як світлодіоди та електронно-променеві трубки. РК-технологія застосовувалася у виробництві калькуляторів та електронних годинників, але була непридатною для виробництва великих екранів.

 

1980 року в Японії розпочалися роботи над створенням кольорових РК-телевізорів. У 1982 році компанія Seiko Epson випустила перший РК-телевізор Epson TV Watch у вигляді наручного годинника. Корпорація Sharp представила матричний екран TN-LCD у 1983 році, а у 1984 році Epson випустила ET-10 — перший повнокольоровий кишеньковий РК-телевізор. Того ж року компанія Citizen Watch представила Citizen Pocket TV — 2,7-дюймовий кольоровий РК-телевізор з комерційним TFT-РК-дисплеєм.

 

У 1983 році була запатентована технологія надскрученої нематичної структури (STN). На відміну від TN-технології РК-дисплеїв, у якій нематики поверталися на 90 градусів, у STN-дисплеях молекули можуть закручуватися на кут від 180 до 270 градусів, завдяки чому чутливість рідкого кристала до електричної напруги значно зростає. Це дає змогу створювати екрани з великою кількістю мініатюрних комірок — пікселів. Уперше прототип STN-матричного дисплея з роздільною здатністю 540 х 270 пікселів було виготовлено компанією Brown Boveri (сьогодні ABB) у 1984 році, що вважалося проривом для галузі.

 

РК-дисплеї STN потребують менше енергії та дешевші у виробництві, ніж РК-дисплеї TFT, але при цьому в них нижча якість зображення та повільніший час відгуку. STN-дисплеї досі використовуються у недорогих мобільних телефонах та інформаційних екранах деяких цифрових гаджетів. На початку 1990-х років вони застосовувалися в деяких портативних комп’ютерах, таких як PPC512 та PPC640 від Amstrad, а також Game Boy від Nintendo.

 

У 1988 році компанія Sharp продемонструвала 14-дюймовий повнокольоровий TFT-РК-дисплей з активною матрицею. Це привело до того, що в Японії виникла індустрія, яка розробила РК-дисплеї великого розміру, зокрема комп’ютерні монітори TFT та РК-телевізори. Epson запровадила проєкційну технологію 3LCD у 1980-х роках та ліцензувала її для використання у проєкторах у 1988 році. Epson VPJ-700, випущений у січні 1989 року, був першим у світі компактним повнокольоровим РК-проєктором.

 

У 1990-х і на початку 2000-х виробники вдосконалювали рідкокристалічні технології, збільшуючи кути огляду дисплеїв і роблячи їх зображення більш чітким і контрастним. Поступово індустрія РК-дисплеїв переміщувалася з Японії до Південної Кореї й Тайваню, а потім до Китаю.

 

У 2007 році якість зображення РК-телевізорів перевершила характеристики традиційних ТБ з електронно-променевою трубкою, що відразу позначилося на їх продажах у всьому світі. Але технології продовжували розвиватися: розміри пікселів ставали дедалі меншими, унаслідок чого зображення ставало дедалі чіткішим; інновації у схемі управління зображенням дали змогу використовувати більш вузькі рамки дисплея, а потім і взагалі відмовитися від них.

 

У 2016 році компанія Panasonic розробила РК-дисплеї IPS, контрастність яких могла конкурувати зі світлодіодними дисплеями OLED. До речі, оскільки РК-дисплеї не виробляють власного світла, для створення видимого зображення їм потрібні зовнішні джерела. У РК-дисплеях пропускального типу джерело світла розташоване в задній частині скляної панелі й називається підсвічуванням.

 

В останніх моделях РК-екранів використовуються два рідкокристалічні шари в поєднанні з шаром міні-світлодіодного підсвічування (так званий світломодулювальний шар LMCL).

Значною перевагою РК-дисплеїв є їхня гнучкість та можливість створення вигнутих форм екранів, що відкриває нові можливості для дизайну таких пристроїв, як смартфони, смарт-годинники, автомобільні панелі. До того ж РК-дисплеї чудово інтегруються з іншими технологіями, такими як сенсорні екрани, віртуальна й доповнена реальність, що дає перспективу для розвитку інтерактивних пристроїв. Подібні напрямки досліджень і розробок сфокусовані на поліпшенні якості, функціональності та застосовності РК-дисплеїв у різних сферах.

 

Винахідник караоке Дайсуке Інуе

Переможна хода караоке

Японець Дайсуке Інуе змалку любив музику. Але коли в школі він попросився до духового оркестру, йому довірили лише барабан. Хоча він дуже старався, отримував лише маленькі партії. І навіть після того, як у старших класах його запросили грати на ударних у місцевій музичній групі, нотну грамоту він так і не освоїв.

 

У 1950-ті роки в Японії були дуже популярні «утаго кісса» — співочі кафе. У цих закладах відвідувачі могли самостійно співати улюблені пісні під акомпанемент живого оркестру. Майже щовечора підробляючи у такому оркестрі, Дайсуке набув неабиякий музичний досвід і навчився грати на синтезаторі. Він славився серед відвідувачів кафе тим, що міг вдало підбирати тональність музики, щоб голос звучав максимально добре.

 

Якось один із бізнесменів запросив Дайсуке на свято до свого заміського котеджу, але музикант був сильно завантажений і не зміг поїхати. Щоб не залишати клієнта без обслуговування, він вирішив записати кілька аранжувань у відповідних тональностях для манери співу цього бізнесмена. Клієнтові ідея дуже сподобалася і, повернувшись, він попросив зробити йому більше композицій.

 

Після цього випадку Дайсуке спало на думку створити безліч акомпанементів до найпопулярніших пісень, завантажити їх в автомат і поставити кнопку-перемикач для управління записами. Автомат дозволяв програти пісню лише після того, як до нього будуть внесені гроші.

 

Музикант звернувся по допомогу до знайомого електронника, і той зібрав 11 музичних автоматів, що складалися з підсилювача, мікрофона, монетоприймача та магнітоли з вісьмома доріжками, що й відбилося в назві цих апаратів — Juke 8 (словом Juke, яке можна перекласти як «спритний» або «верткий», було прийнято називати музичні автомати).

 

1971 року Дайсуке розмістив автомати в клубах своїх знайомих. Але коли через тиждень об’їхав їх, скрізь було те саме: відвідувачі питали, що за штуковини стоять у кутку, але ніхто до них не торкався. Грошей не було в жодному з апаратів.

 

Тоді винахідник попросив свою знайому попрацювати приманкою: з’явитися у цих клубах та заспівати під Juke 8 кілька пісень. Це спрацювало — симпатична дівчина привернула увагу відвідувачів, і вони почали активно користуватися автоматами. Пристрій став справжньою золотою жилою. Незабаром музичні автомати-акомпаніатори поширилися всією Японією, у них навіть з’явилася народна назва — «караоке», скорочення від «кара окесутура», що перекладається як «порожній оркестр».

 

Караоке дало людям змогу самовиражатися у співі, що спочатку було мрією багатьох.

 

Як це часто буває, сам винахідник не встиг запатентувати свій автомат, тому його виробництвом зайнялися інші компанії, заробляючи на цьому мільйони. До речі, єдиним патентовласником караоке-апарату на сьогоднішній день є філіппінець Роберто дель Росаріо, який у 1975 році розробив власну версію системи співу під караоке.

 

Згодом завдяки технічному прогресу караоке вдосконалювалося. Магнітні стрічки бобін та аудіокасет відрізнялися незручним перемиканням треків, тому поява лазерних дисків (попередників CD та DVD розміром з грамплатівку) дозволяла знаходити потрібні композиції значно швидше. А в 1982 році компанія Pioneer випустила караоке-програвач Lazer Karaoke, у якому звук поєднувався із зображенням. Диск містив до 20 музичних треків без вокалу, а слова виводилися на екран телевізора і підсвічувалися так само, як ми звикли бачити це зараз. Це був прорив, який дав можливість кожному купити караоке та організувати співи в домашніх умовах. Завоювавши ринок Японії та інших азійських країн, система дісталася й решти світу.

 

З появою компактніших CD і DVD програвачі караоке вміщали все більше композицій і ставали все доступнішими, що значно підвищувало популярність цієї розваги. З 1991 до 1992 року індустрія продемонструвала рекордне зростання на 79 %, оборот у ній досяг понад пів мільярда доларів.

 

Системи караоке отримували все більше додаткових можливостей: з’явилися пристрої з функціями зміни темпу і тональності мелодії, автоматичного ввімкнення-вимкнення голосу соліста, програмування та сортування композицій, проведення командних змагань, виставлення оцінки за співи.

 

Ще одним винаходом 1990-х стали системи Leadsinger, що є мікрофоном зі вбудованим мікшером і пристроєм для читання змінних картриджів. Вони підключалися до ТБ або FM-приймача, відтворювали музику та зводили її з вокалом. Але мала поширеність і велика ціна картриджів з фонограмами не зробили їх популярними.

 

Прихід на ринок караоке компанії Studio Evolution став однією з найяскравіших подій в індустрії. Упроваджуючи передові технічні рішення, вона швидко перетворилася на флагман галузі, що задає загальні вектори розвитку для інших. Серед нововведень, принесених Studio Evolution, варто виділити:

  • накладення оригінальних відеокліпів на саундтрек мінусівки;
  • запровадження системи динамічної зміни фонових зображень з можливістю налаштування користувачем виведених картинок та використання своїх фото;
  • упровадження системи відео, що дає користувачам змогу озвучувати своїм голосом фрагменти фільмів (так зване Мувіок);
  • поява функції запису виступів та збереження їх на зовнішніх носіях.

Важливим нововведенням Studio Evolution стало створення централізованого онлайн-каталогу композицій, що дозволяє позбутися зайвих носіїв із піснями та повністю вирішити проблему доступу до контенту. Кожен користувач може вибирати і завантажувати з мережі якісні фонограми, які за рівнем можна порівняти з професійними записами для виступів. Такі технології в даний час застосовуються в караоке-барах, які користуються постійною популярністю у широкої аудиторії. Наявність танцполів та світлових ефектів робить такі заклади привабливішими, ніж просте використання караоке-приставки в побуті.

 

Утім, домашнє караоке також має свою армію прихильників. Для них виробники випускають караоке-програми для ігрових приставок, персональних комп’ютерів і навіть мобільних телефонів, а також оснащують вбудованою функцією караоке різні відеоплеєри.

 

У багатьох країнах світу популярністю користуються караоке-таксі. Вперше таку послугу запропонували клієнтам перевізники з Південної Кореї у 1990-х роках, а сьогодні таксі з караоке-автоматом та мікрофонами для пасажирів є у Великій Британії, Німеччині, Канаді та інших країнах.

 

У 2003 році китайський виробник автомобілів Geely Automobile вперше додав караоке-систему до списку стандартного обладнання серійної моделі Beauty Leopard. А сьогодні високотехнологічні автомобілі Tesla оснащуються інформаційно-розважальною системою з додатком Car-a-oke.

 

У 1999 році журнал Time включив Дайсуке Інуе до списку двадцяти людей, які найбільше вплинули на XX століття. У статті, присвяченій цій темі, було вказано, що завдяки Ганді люди стали інакше проживати свої дні, а завдяки Інуе — ночі. 2004 року творець караоке став лауреатом Шнобелівської премії світу — пародії на Нобелівську премію «за досягнення, які змушують спочатку засміятися, а потім задуматися». Дайсуке отримав цю премію за винахід, який «вчить усіх миритися з жахливим співом простих людей і навіть отримувати від нього задоволення».

 

З 2003 року проводиться щорічний чемпіонат світу з караоке, у якому беруть участь понад 40 країн світу. Для цього в кожній країні-учасниці попередньо проводяться національні випробування, переможці яких змагаються потім у міжнародних фіналах.

 

А ще книгою рекордів Гіннеса зареєстровано кілька світових рекордів, пов’язаних із караоке-співом. Так, Угорщина є рекордсменом найтривалішого караоке-марафону з кількома учасниками на заході, організованому в ресторані Honey Grill Габором Даніелем Сабо (REVVOX Music). Він тривав 1011 годин 1 хвилину з 20 липня до 31 серпня 2011 року. Кожна пісня звучала понад 3 хвилини, а перерва між піснями становила не більше 30 секунд. Жодна пісня не повторювалася в жодному двогодинному періоді.

 

Рекорд найтривалішого сольного караоке-марафону належить італійцеві Леонардо Полвереллі, який заспівав 1295 пісень за 101 годину 59 хвилин та 15 секунд.

 

Світовий рекорд за кількістю людей, які співають караоке, було встановлено на гоночній трасі Bristol Motor Speedway у США 22 серпня 2009 року. Перед початком гонки NASCAR Sharpie 500 понад 160 000 людей почали співати пісню Ґарта Брукса Friends in Low Places.

Сенсорний екран першої системи електронного навчання PLATO IV

Сенсорний екран сучасного планшета

Пристрій Surfancy, що дозволяє перетворити на сенсорну панель будь-яку поверхню

Як сенсорний екран потрапив до масового користувача

Роком створення першого сенсорного екрана або, на англійський манер, тачскрина вважається 1972-й. Саме цього року в США в рамках досліджень з програмованого навчання було створено комп’ютерну систему PLATO IV (Programmed Logic for Automated Teaching Operations — Програмована логіка для автоматизованих операцій навчання) — першу систему електронного навчання, яка використовувалася протягом 40 років.

 

Примітно, що спочатку вона була призначена для виконання простих курсових робіт студентами університету Іллінойса, місцевими школярами, а потім і учнями інших вишів. Згодом багато технологій, вперше реалізованих у цій системі, стали основою для сучасних комп’ютерних розробок. Так, наприклад, у PLATO IV був механізм розділюваної пам’яті («спільні» змінні), що дозволяло за допомогою мови програмування TUTOR передавати дані між різними користувачами в реальному часі. Так уперше створювалися програми для чату, а також перший розрахований на багато користувачів авіасимулятор. І все це за 30 років до Інтернету!

 

Однак основною особливістю системи PLATO IV був сенсорний екран на сітці інфрачервоних променів, що складався з 16 × 16 блоків. Але навіть така низька точність давала користувачеві змогу вибирати відповідь, натискаючи на потрібне місце екрана. Утім, правильніше було б сказати, що в 1972 з’явився перший сенсорний екран, доступний масовому користувачеві. Річ у тім, що розробки в цьому напрямку робилися і раніше.

 

Так, уперше використовувати взаємодію з екраном, а не з клавіатурою чи іншими пристроями вводу, запропонував ще в 1954 році Роберт Еверетт із американської Lincoln Lab для вибору та керування іконками літаків на авіарадарі. Щоправда, тоді екран реагував не на доторкання пальцем, а на так звану світлову гармату — якщо у вас були світловий пістолет і приставка Денді, то ви легко можете уявити собі цей прилад.

 

Операторам авіаційних радарів потрібно було якнайшвидше реагувати на літаки і ракети можливого супротивника у своєму повітряному просторі, тому уряд США витратив 12 мільйонів доларів на розробку системи SAGE, яка значно вплинула на розвиток інформаційних технологій — уперше весь повітряний простір управлявся 27 300-тонними комп’ютерами, з’єднаними аналоговими модемами. Алгоритми автоматично реагували на погрози та пропонували заходи для контратак. Для створення системи було залучено 20 % програмістів усього світу, які написали 250 000 рядків найважчого коду в історії. SAGE виявилася настільки складною та надійною, що керувала системою протиракетної оборони США до 1983 року!

 

У системі SAGE оператор діяв миттєво — замість введення координат за допомогою клавіатури він просто вказував світловим пером на точку, оптико-електричне перо передавало сигнал комп’ютеру, і той сам обчислював координати. Це дозволило вести управління у реальному часі та запобігати помилкам.

 

До 1957 року світлова гармата зменшилася до світлового стилусу. З його допомогою можна було не лише виділяти літаки, а й малювати на екрані, наче ручкою. У 1963 році, розвиваючи цю ідею, корпорація RAND на замовлення DARPA створила універсальний графічний планшет зі стилусом, який забезпечував безпрецедентну для того часу роздільну здатність — 100 доріжок на дюйм, а в цілому планшет мав 1024 горизонтальні доріжки і стільки ж вертикальних.

 

1965 року насправді з’явився тачскрин, тобто в буквальному перекладі «екран для дотиків». Завдяки створеному Едвардом Джонсоном з Royal Radar Establishment ємнісному сенсорному екрану диспетчери в аеропорту могли просто торкатися до нього пальцем без використання стилуса. Для цього екран кінескопа покривався провідною прозорою плівкою, дотик пальця до екрана змінював опір і система отримувала відповідний сигнал.

 

Простота і надійність дали цій системі можливість керувати всіма авіаперельотами до Великої Британії до самого кінця 1990-х років! Утім, саме простота не дозволила їй набути поширення і стати масовим явищем — на такій плівці не можна виміряти силу натискання і, що важливіше, до екрана можна доторкатися лише в одному місці за раз — жодного мультитача (від англ. multi-touch — множинний дотик). Завдяки функціям сучасних сенсорних систем введення визначаються координати відразу кількох точок дотику.

 

Найцікавіше те, що ідея технології сенсорного екрана, яку повсюдно використовують у наш час, виникла ще до появи першого масового тачскрину в системі PLATO IV. У 1970 році Семюел Герст, який проводив дослідження з атомної фізики у складі групи вчених, зіткнувся з необхідністю втомливого аналізу даних із паперових стрічок. Щоб вирішити цю проблему, Сем запропонував використовувати електропровідний папір, щоб зчитувати пари X та Y координат. Закинувши свої дослідження, Герст та його дев’ять колег засіли в гаражі й довели випадковий винахід до досконалості. У результаті народилася технологія «електричного сенсора плоских координат»: два електропровідні шари задавали X і Y координати відповідно.

 

Тиск на екран дозволяв струму текти між X і Y шарами, що легко вимірювалося на виході й одразу конвертувалося в числові координати. Тому такий тип екрана і називається резистивним — він реагує на тиск (resist — опір), а не на електропровідність. І хоча патент на цю технологію було отримано у 1971 році, реального прототипу довгий час не було, тому сенсорний екран Герста не став першим в історії.

 

Серйозний розвиток сенсорного екрана відбувся завдяки CERN — Європейській організації з ядерних досліджень. У 1973 році запуск протонного синхрофазотрона вперся в неможливість оперативного регулювання. Нова установка була в 10 разів більша, потужніша і складніша за попередній прискорювач частинок, тому для керування ним потрібна була нескінченна кількість кнопок і перемикачів на панелі приладів. Оперувати ними всіма мали лише кілька людей, у цьому й полягає сенс централізованого управління.

 

Рішення було знайдене — перекласти всю роботу на суперкомп’ютери, які виводитимуть оператору на екран лише потрібні дані. А для оперативного реагування на те, що відбувається, було вирішено зробити екран, який би реагував на дотик пальців. Взявши за основу винахід Герста, фахівці створили такий тип сенсорного екрана, яким ми тепер користуємося повсюдно в численних смартфонах, планшетах і подібних пристроях. На той момент система настільки випереджала свій час, що жодних ідей про застосування сенсорних екранів, крім як виключно для професійної наукової сфери, не виникало.

 

Вражає, що, по суті відкривши мультитач-функцію, завдяки якій нині здійснюється масштабування екрана або вводяться жести для розкодування, в CERN його так і не використовували. Тоді мультитач сприймався виключно як можливість натискати на екрані кілька кнопок одночасно.

 

Лише до середини 1980-х, коли компанія Bell Labs зосередила свої зусилля на вдосконаленні функціоналу сенсорних екранів, було створено тачскрин, що дозволяв гортати зображення двома руками.

 

Наступним кроком у розвитку тачскринів стала поява сенсорних рамок. 1985 року цю технологію розробили в Університеті Карнеґі-Меллона. Принцип дії полягав у тому, що рамка дисплея підсвічувалася інфрачервоними променями, а дотик до екрана визначався по зміні розсіювання світла на межі «скло-повітря».

 

Подібні дисплеї могли розпізнавати одночасний дотик трьома пальцями. До речі, дисплеї з інфрачервоними рамками застосовуються і в наші дні, наприклад, в електронній книзі PRS-350 та різних промислових пристроях. Головний плюс такого сенсорного екрана — відсутність додаткового шару прозорого матеріалу. Але, на жаль, сенсорні рамки досить складні та невиправдано дорогі. У 1983 році персональний комп’ютер HP-150, оснащений дисплеєм з подібним інфрачервоним тачскрином, коштував три тисячі доларів. При цьому в отвори для сенсорів знизу екрана швидко забивався пил, і вони припиняли працювати, тому фінансового успіху проєкт не мав.

 

Примітно, що в 1984 році Боб Бойл із Bell Labs зміг удосконалити систему, замінивши промені та сенсори на прозорий шар поверх екрана, що дозволило реалізувати справжній мультитач — екран міг розпізнавати дотики навіть десяти пальців одночасно. Але дуже швидко виявилося, що людські руки зовсім не пристосовані до «тикання» пальцем у вертикальний екран більше 10-15 хвилин.

 

Тобто несподівано з’ясувалося, що тримати руку піднятою десять хвилин ще якось можна (хоча теж заняття малоприємне), а от тикати пальцем у стіну тривалий час — неможливо. Рука набрякає і дуже втомлюється, дослідники назвали цей ефект Gorrilla Arm, тобто «рука горили». Тому, коли у фантастичному фільмі головний герой у віртуальних окулярах у повітрі перед собою починає набирати тексти на невидимій клавіатурі, знайте, що таке неможливо в принципі. І не через відсталість технологій, а через недосконалість людського організму.

 

Саме через боротьбу із синдромом «горилячої руки» Стів Джобс наполягав на тому, щоб на макбуках ніколи не було тачскринів, а інші девайси Apple оснащувалися сенсорним екраном, по якому можна було б водити пальцями як заманеться.

 

На початку 2000-х компанія FingerWorks розробила та почала випускати ергономічні клавіатури з можливістю використання мультидотиків / жестів, а в 2005 році цю компанію придбала Apple. Джобс, який на той час повернувся на посаду керівника компанії, боровся за кожен грам ваги та за кожен міліметр розміру майбутнього айфона, щоб перемогти «руку горили».

 

Він принципово ненавидів стилуси і ставив перед інженерами одне завдання — можливість розблокувати смартфон одним жестом. Цей жест, продемонстрований ним на знаменитій презентації 2007 року, згодом отримав назву «свайп» (від англійського swipe — провести не відриваючи, ковзати). Примітно, що в англійській мові для позначення жесту застосовується swype, як злиття слів swipe і type — друкувати.

 

Сьогодні розблокування та перегортання списків таким же простим рухом пальця сприймається як щось звичне й цілком очевидне, а лише півтора десятиліття тому ця технологія зробила справжню революцію у світі мобільних телефонів та портативних комп’ютерів, ознаменувавши початок нової ери смартфонів та планшетів.

 

Слід зазначити, що сенсорні екрани сучасних гаджетів не стали вершиною еволюції тачскринів. Інженери вирішили не зупинятися на досягнутому і замислилися над тим, як зробити сенсорний екран взагалі без… екрана.

 

Так і народилася ідея Surfancy — пристрою, який перетворює на сенсорну панель взагалі будь-яку поверхню. Для цього достатньо закріпити на ній дві планки з інфрачервоними випромінювачами. Система відрізняється підвищеною надійністю, точністю та перешкодостійкістю. Її працездатність зберігається навіть при прямому сонячному засвіченні планок на відстані між ними до 6 метрів. При цьому сенсори здатні розпізнавати щонайменше чотири одночасні дотики.

 

У перспективі очікується поява технологій, що дозволять зробити сенсорними поверхні будь-якої форми. Сенсорна тканина, зокрема одяг і взуття, зможуть змінювати свій колір та візерунок за бажанням власника. А телевізійний проєктор з функцією віртуального тачскрина перетворюватиме на сенсорний екран взагалі будь-яке зображення.

Радіотелефон Л.І. Купріяновича

Перший мобільний телефон та його творець Мартін Купер

Еволюція мобільних телефонів

Як зробити телефон портативним бездротовим пристроєм

Винайдення у XIX столітті телефонного зв’язку стало революційною подією, яка, безсумнівно, вплинула на всі сфери життя людини. Можливість швидко обмінюватись інформацією на відстані скоротила час реакції на важливі події та дала змогу швидко узгоджувати рішення без необхідності фізичної присутності.

 

Тим часом дослідники в галузі зв’язку постійно розмірковували над способами його удосконалення, і зокрема над тим, як зробити телефон портативним бездротовим пристроєм, завдяки якому дзвінки можна було б здійснювати з будь-якого зручного місця, не витрачаючи час на те, щоб дістатися найближчої телефонної лінії.

 

Ще 1908 року професор Альберт Ян заявив, що розробив бездротовий телефон. Однак телефонні компанії, побоюючись втратити монополію на надання послуг зв’язку, звинуватили його в шахрайстві. І хоча пізніше звинувачення зняли, жодного подальшого розвитку історія не набула.

 

У 1917 році фінський винахідник Ерік Тіґерстедт успішно подав патент на «кишеньковий складний телефон із дуже тонким вугільним мікрофоном». А починаючи з 1918 року німецька залізнична система протестувала бездротову радіотелефонію у військових поїздах між Берліном та Цоссеном. 1924 року розпочалися публічні випробування телефонного зв’язку в поїздах між Берліном і Гамбургом. У 1925 році було засновано компанію Zugtelephonie AG для постачання обладнання для залізничної телефонії, а в 1926 році телефонний зв’язок був схвалений і запропонований пасажирам першого класу в німецьких поїздах на маршруті Гамбург — Берлін.

 

Під час Другої світової війни радіотелефонний зв’язок використовувався у воєнних цілях. На його розвиток та вдосконалення виділялися величезні кошти, оскільки якісний зв’язок у всі часи був запорукою успіху в бойових діях.

 

Після війни технології, розроблені під час конфлікту, отримали своє застосування у мирному житті. 17 червня 1946 року в американському Сент-Луїсі було відкрито першу мережу автомобільної радіотелефонії, розробленої інженерами Bell Labs. У наступні десятиліття такі системи почали з’являтися в інших країнах.

 

Автомобільні радіотелефони споживали багато енергії і були надміру громіздкими — вага апарата доходила до 40 кілограмів, й іноді він займав весь багажник. При цьому мережа могла підтримувати лише кілька одночасних розмов, до того ж зони радіопокриття і доступні радіотелефонні канали були вкрай обмеженими. А через те, що дзвінки передавалися у вигляді незашифрованих аналогових сигналів, будь-хто, у кого було радіообладнання, здатне приймати ці частоти, міг їх підслухати.

 

1957 року інженер Леонід Іванович Купріянович представив створений ним перший дослідний портативний телефон ЛК-1. Порівняно з попередніми розробками це був справжній прорив: апарат важив всього 3 кг, при цьому мав радіус дії до 30 кілометрів і міг працювати без заміни батарей до 30 годин. Не перестаючи вдосконалювати свій винахід, Купріянович до 1961 створив прототип кишенькового радіотелефона ЛК-3, який узагалі міг поміститися на долоні. Його маса становила лише 70 г, а дальність зв’язку сягала 80 кілометрів.

 

Але не лише радіотелефонія розвивалася весь цей час. Ще 11 грудня 1947 року інженер компанії Bell Labs Дуґлас Рінґ запропонував концепцію мобільного зв’язку, у якій базові станції (вишки) розташовувалися таким чином, що утворювали шестикутні зони покриття, схожі на бджолині стільники. Саме завдяки такій структурі згодом даний вид зв’язку отримав назву стільникового.

Перший комерційний мобільний телефон Motorola DynaTAC 8000X з’явився в 1973 році.

 

Його творець інженер Мартін Купер здійснив перший дзвінок, передаючи привіт конкурентові Джоелю Енґелю — спеціалісту з Bell Labs, який не вірив у те, що мобільні телефони взагалі будуть потрібні: «Джоелю, це Марті. Я телефоную тобі з мобільного телефона, справжнього портативного мобільного телефона».

 

Пристрій Купера важив майже два кілограми і вмів тільки здійснювати дзвінки, але не приймав їх. Акумулятора вистачало на пів години роботи, а заряджати його доводилося 10 годин. Дизайнери DynaTAC 8000X назвали свій витвір «черевиком», але в народі краще прижилася назва «цеглина».

 

У продаж стільниковий (він же мобільний) телефон потрапив лише через 10 років. Річ у тім, що для повноцінного його функціонування потрібно було створити відповідну інфраструктуру зв’язку — побудувати ті самі стільникові вишки. Ціна телефона становила майже чотири тисячі доларів, тому таке задоволення могли собі дозволити далеко не всі, і вже сама наявність «мобільника» говорила про статки його власника.

 

У 1980-х роках у Motorola з’явилися перші конкуренти. Їхні переносні телефони мали солідні розміри і були далекі від поняття портативності. Наприклад, популярний телефон Nokia Mobira Senator, який призначався для використання в автомобілі, важив близько 10 кілограмів. Тільки до кінця десятиліття виробники зрозуміли, що продукт стане по-справжньому мобільним та масовим, тільки коли вдасться зменшити його розмір.

 

На початку 1990-х сталося кілька важливих технологічних нововведень, які вплинули на подальший розвиток пристроїв:

  • Sony випустила перший літій-іонний акумулятор, який став основою практично всіх мобільних телефонів у світі завдяки високій енергоємності, низькому саморозряду та великій кількості циклів заряджання-розряджання;
  • в Європі почав діяти стандарт цифрового мобільного зв’язку GSM, який не лише звів до єдиного знаменника різноманітність у галузі технологій мобільного зв’язку, а й дав змогу абонентам отримувати та надсилати SMS (від Short Message Service — сервіс коротких повідомлень);
  • світова інженерія взяла курс на мініатюризацію чіп-компонентів. Зменшення розмірів транзисторів дало змогу наносити більшу їх кількість на мікросхему. А що більше транзисторів, то потужніший і продуктивніший пристрій.

Розміри та вага мобільних телефонів у 1990-ті почали стрімко знижуватися. До того ж їх тепер не тільки можна було носити в кишені. Виробники експериментували з дизайном: з’явилися перші «розкладачки», «черепашки / книжки» й телефони з фліпом — невеликою кришкою, що прикривала клавіатуру. А ще в мобільники почали активно впроваджуватись нові функції: калькулятор, календар, ігри, будильник, секундомір, ліхтарик, радіо. При цьому вартість їх знизилася настільки, що цей девайс став доступним для всіх охочих.

 

У 2000-ті практично всі мобільні телефони втратили зовнішню антену — виробники примудрилися сховати її всередині корпусу. З’явилися і почали активно поширюватись телефони з кольоровим дисплеєм, який незабаром став нормою для всіх моделей. До дизайнерської різноманітності форм додалися слайдери та різні експерименти з клавіатурою. Іноді період до 2007 року називають золотим віком дизайну мобільних пристроїв — розміри стільникових телефонів постійно зменшувалися, моделі ставали дедалі легшими та витонченішими.

 

У користувачів з’явилася можливість надсилати MMS (Multimedia Message Service — сервіс мультимедійних повідомлень) — повідомлення із зображеннями, мелодіями та відео. ММС-ки були в кілька разів дорожчі за СМС, але їх можна було відсилати не тільки на стільниковий телефон, а й на електронну пошту. До речі, у цей час мобільні оператори почали надавати доступ до мобільного Інтернету за технологією Edge. Середня швидкість становила лише 125 кбіт/с, а вартість послуги була такою, що одне необережне натискання на іконку Інтернету могло спустошити рахунок абонента…

 

Згодом з’явилася можливість обмінюватися даними безпосередньо між телефонами через Bluetooth. Ця технологія не втратила актуальності навіть із поширенням Wi-Fi. Завдяки невеликим розмірам дисплея мобільних телефонів акумуляторної батареї в режимі очікування вистачало на строк до двох тижнів. Багато моделей забезпечувалися підтримкою зовнішніх карток пам’яті.

 

Звичним оснащенням мобільних телефонів стали цифрова камера фото / відеозйомки і можливість слухати музику у форматі MP3. На ринку почали з’являтися спеціалізовані моделі з акцентом на ту чи іншу функцію: телефони-плеєри (Sony Ericsson Walkman), телефони з ігровими приставками (Nokia n-gage), телефони-фотоапарати (Nokia N95) та бізнес-телефони із повноцінною клавіатурою (BlackBerry).

 

До середини 2000-х на ринку мобільних телефонів поширилося слово «смартфон». Завдяки новій операційній системі Symbian, яка давала змогу встановлювати додаткові програми та ігри, користувачі отримали розширений функціонал своїх пристроїв.

 

Здавалося, що мобільні телефони досягли межі досконалості. Але тут у 2007 році з’явився iPhone — перший смартфон Apple, який отримав повноцінний сенсорний екран, що займав більшу частину передньої частини корпусу. Крім того, пристрій міг відкривати звичайні сайти (для інших мобільних телефонів існували спеціальні wap-сайти), а також підключався до мережі Wi-Fi. Наступне покоління смартфонів отримало підтримку GPS та технології 3G, які забезпечили більш високу швидкість Інтернету порівняно з Edge — до 1 мбіт/с.

 

Усе це згодом заклало стандарти мобільних апаратів наступного покоління, а продажі традиційних кнопкових моделей стрімко пішли на спад. Починаючи з 2007 року смартфони стали знову збільшуватися, по-перше, у розмірі, а по-друге, у ціні.

 

2008 року з’явилася мобільна операційна система Android, що дала альтернативу патентованим айфонам. До 2020 року частка пристроїв під управлінням цієї платформи становила близько 75 %.

Мобільні оператори стали пропонувати швидший та якісніший Інтернет. Як наслідок, користувачі почали приділяти все більше уваги соцмережам і форматам мультимедіа — фото й відео. Усе це привело до того, що пристрої з більшими дисплеями стали набагато популярнішими, ніж із маленькими. Зображення настільки захопили користувачів, що якість та розмір екрана, а також можливості камери стали основною деталлю преміальних смартфонів.

 

До 2020 року смартфони набули різних можливостей. Зокрема, отримали датчики розпізнавання відбитків пальців та облич, повністю замінили плеєри й камери, перетворилися на гаманці, у кілька разів перевищили потужність комп’ютерів 1990-х, захопили більшу частину комунікацій з іншими людьми та стали річчю, без якої ми не можемо вийти з дому.

 

Судячи зі смартфонів зі складаним дисплеєм, які з’явилися у провідних виробників галузі на початку 2020-х, максимальна гнучкість мобільних пристроїв стане наступним пріоритетом у напрямку їхнього розвитку.

 

Потужні процесори, великі обсяги оперативної пам’яті та покращені графічні можливості продовжуватимуть бути стандартом для мобільних пристроїв. Це дозволить їм обробляти все складніші завдання, такі як штучний інтелект, віртуальна реальність та розумні системи.

 

Упровадження технологій зв’язку нового покоління, таких як 5G та 6G, забезпечить високу швидкість передавання даних, низьку затримку та велику пропускну здатність. Це відкриє нові можливості передавання великого обсягу контенту, стримінгу високоякісного відео та розвитку інтернету речей (IoT).

 

Виробництво більш ефективних акумуляторів, а також упровадження технологій швидкого заряджання та бездротового передавання енергії дасть змогу збільшити час автономної роботи мобільних пристроїв. Гаджети продовжуватимуть покращувати свої камери, використовуючи більш якісні датчики зображення, оптику і програмне забезпечення для обробки фотографій та відео. Крім того, мобільні пристрої інтегруватимуть у себе нові технології, такі як доповнена і віртуальна реальність, розпізнавання жестів, біометрична ідентифікація та ін.

 

Безперечно, мобільні телефони будуть все більш продуктивними та зручними, щоб задовольнити потреби користувачів та дотримуватися трендів технологічного розвитку.

Пристрої для зберігання даних

У 1980 році розпочалися небачені перегони, переможець у яких у підсумку мав завоювати весь світ, а переможений — назавжди піти в історію. Йдеться про пристрої, що використовуються для зберігання даних, — компакт-диски (CD) та флеш-накопичувачі. І хоча спочатку ці технології розроблялися для різних цілей, і про жодне суперництво між ними навіть не йшлося, компакт-диски, які були панівними носіями інформації протягом 1990–2000-х років завдяки своїй великій місткості та надійності, у другій половині 2000-х були повністю витіснені флеш-накопичувачами.

 

Спочатку компакт-диски створювалися для зберігання аудіо у цифровому форматі. У 1970-х роках програвачі та вінілові платівки до них поступово втрачали популярність. У той час як більшість аудіоапаратури швидко зменшувалася в розмірах, діаметр вінілового диска в 30 см не дозволяв зробити програвач для нього компактним. Ба більше, платівки були механічно вразливі та потребували обережного поводження: подряпини та бруд могли незворотно зіпсувати звукову доріжку.

 

Лу Оттенс, технічний директор компанії Philips, який розробив компактну аудіокасету, почав шукати менші за розміром та ефективніші альтернативи програвача та носія. Аудіокасета хоч і задовольняла запити споживачів щодо компактності, але якість її звуку не дотягувала до якості вінілових платівок.

 

Відділ оптики з дослідницької лабораторії Philips, також відомої як Nat.Lab (Natuurkundig Laboratorium), експериментував із новою системою запису та відтворення аналогових кольорових відеосигналів, що пізніше стала відомою як VLP (Video Long Play). Оттенс, поінформований про цю технологію, попросив інженерів Nat.Lab вивчити можливості оптичного запису та відтворення чотирьох (quadro) аудіосигналів на оптичному диску. Проєкт отримав назву ALP (Audio Long Play), що вказувало на його спорідненість із VLP.

 

З’ясувалося, що записаний у такий спосіб аналоговий сигнал не міг забезпечити звук Hi-Fi якості. Натомість із цифровим способом запису можна було використовувати код, що виправляв помилки, які виникали у процесі відтворення.

 

Примітно, що ще 1965 року Джеймс Рассел із американського інституту Battelle Memorial працював над питанням зберігання цифрової інформації на оптичному диску. У 1970 році йому було видано патент на систему запису та відтворення аналого-цифрової фотографії (патент США 3 501 586). А 1969 року Девіду Полу Ґреґґу було видано патент на оптичний відеодиск (патент США 3 430 966). Таким чином можна сказати, що ці дві людини частково винайшли базові компоненти компакт-диска.

 

На початку 1970-х цифрова система ALP була занадто складною та дорогою, щоб зробити пристрій, доступний масовому покупцеві. Лише 25 листопада 1977 року вдалося створити перший прототип, який отримав назву DM-ALP. Якість звуку цієї нової оптичної аудіотехнології перевищувала можливості вінілових платівок.

 

На пропозицію Йопа ван Тілбурґа, генерального директора аудіонапрямку Philips, назва ALP була змінена на Compact Disc або просто CD. Слово сompact відповідало іншому хіту Philips — компакт-касеті. До речі, і діаметр CD-диска було визначено в 11,5 см, що дорівнювало діагоналі компакт-касети.

Час відтворення цифрового оптичного диска було обмежене однією годиною. Ба більше, керівництво проєкту вирішило створити лабораторію CD Lab із розробки прототипу програвача компакт-дисків і дисків, які можна було б продемонструвати всьому світу. Керівником проєкту став Йооп Сінжу, в його лабораторії було зібрано команду з 35 осіб.

 

У березні 1979 року в офісі Philips були представлені результати розробки: прототип системи CD та диск. Після цієї презентації для Philips Audio було важливо знайти сильного промислового партнера, який був би зацікавлений у співпраці для втілення загального стандарту CD. Керівництво аудіонапрямку Philips звернулося до кількох японських компаній із проханням про зустріч для показу й демонстрації прототипу свого компакт-диска. Так, у період з 14 до 23 березня 1979 року відбувся гастрольний тур прототипу по компаніях: JVC, Sony, Pioneer, Hitachi та MEI (Matsushita).

 

В останній день візиту до Японії з керівництвом Philips зв’язався Акіо Моріта, голова корпорації Sony, і заявив про готовність до співпраці.

Sony була ідеальним партнером для Philips. Вона не тільки займала провідні позиції в сегменті, пов’язаному із цифровим записом звуку на магнітну стрічку, але також розробила свої прототипи оптичного цифрового аудіоплеєра та диска.

 

Примітно, що за власним побажанням віце-голови Sony Норіо Огі початковий діаметр диска-прототипу в 11,5 см був змінений до 12 см. Річ у тім, що на 12-сантиметровому диску можна було записати улюблений твір Огі — Дев’яту симфонію Бетховена тривалістю 74 хвилини.

 

Що ж до розміру центрального отвору в CD-диску, то, коли це питання постало під час однієї із зустрічей Philips-Sony, Йооп Сінжу просто поклав на стіл голландську 10-центову монету, діаметр якої і став стандартом для обговорюваного параметра.

 

У червні 1980 року Philips і Sony представили світові остаточні стандарти компакт-диска — серію документів, у яких описаний диск діаметром 120 мм, що є носієм музики з роздільною здатністю 16 біт/44,1 кГц. У продаж CD-диски та програвачі до них надійшли лише 1983 року, після чого нова технологія стала стрімко завойовувати світ.

 

Після появи CD-технології кілька десятиліть пройшли в розробках цифрових оптичних дискових систем для відтворення й запису комп’ютерних даних, музики і відео. На компакт-диски записували будь-які файли у вигляді двійкової інформації, а згодом з’явилися пристрої з можливістю не лише читання, а й запису та перезапису.

 

Коли компакт-диск став широко використовуваним носієм інформації для аудіо, програмного забезпечення та інших даних наприкінці 1980-х і в 1990-х роках стало очевидним, що існує потреба у більш містких та універсальних форматах для зберігання великих обсягів даних, таких як відео та мультимедійні програми. У відповідь на цю потребу в середині 1990-х розробили DVD — Digital Versatile Disc (цифровий багатоцільовий диск). Він поєднував у собі переваги CD (наприклад, простоту виробництва, довговічність) зі збільшеною місткістю та можливостями запису, даючи змогу зберігати відео високої роздільної здатності, комп’ютерні ігри та інші мультимедійні дані.

 

На початку 2000-х був представлений Blu-ray Disc — подальший розвиток технології оптичних носіїв інформації. Поява синіх лазерних діодів дала можливість розробити щільніший формат зберігання, ніж наявні на той момент зразки. Як наслідок, Blu-ray пропонував значно більшу місткість порівняно з CD та DVD. Одношаровий диск Blu-ray міг вмістити до 25 гігабайт даних, а двошаровий — до 50 гігабайт. Це дозволяло записувати відео високої (HD) та ультрависокої чіткості (Ultra HD, або 4K), а також зберігати великі обсяги даних.

 

До початку 2010-х років розвиток Інтернету та цифрових технологій надав можливість завантажувати й потоково передавати контент безпосередньо з мережі. Це зробило фізичні носії не такими необхідними для зберігання та передавання даних.

 

Користувачі можуть легко купувати й дивитися фільми, слухати музику та завантажувати програмне забезпечення без придбання CD, DVD або Blu-ray-дисків. Значно актуальнішими стали флеш-носії, такі як USB-накопичувачі та SD-карти. Це компактніший, портативніший і міцніший формат зберігання даних порівняно з компакт-дисками, до того ж він має можливість швидкого перезапису, що робить його універсальним для повторного використання.

 

Технологія флеш-пам’яті також з’явилася 1980 року. Інженер із Toshiba Фудзіо Масуока винайшов новий тип транзисторної пам’яті, який дозволяв швидко та легко стирати цілі розділи шляхом подавання напруги на один провід, підключений до групи комірок. Назва «флеш» (від англійського flash — спалах) була запропонована колегою Масуокі, Седзі Аріїзумі, тому що процес стирання вмісту пам’яті нагадав йому спалах фотоапарата.

 

Toshiba випустила у продаж перші зразки флеш-накопичувачів лише в 1987 році. Технологія цього виробника отримала назву NAND (від not and). А 1988 року свій перший комерційний флеш-чіп представила корпорація Intel, він був виконаний за технологією NOR (від not or). Обидві технології мали свої переваги і недоліки.

 

Флеш-пам’ять на основі NOR має тривалий час стирання та запису, але завдяки вищій щільності компонування допомагає збільшити місткість чіпа. До того ж вона забезпечує довільний доступ до будь-якої комірки пам’яті, що робить її хорошою заміною для більш старих мікросхем постійної пам’яті (ПЗУ), яка рідко потребує оновлення (наприклад, BIOS комп’ютера або прошивка телевізійних приставок).

 

Інтерфейс введення-виведення флеш-пам’яті NAND не забезпечує зовнішню адресну шину з довільним доступом. Швидше дані мають зчитуватися поблоково, з типовими розмірами блоків від сотень до тисяч біт. Це робить флеш-пам’ять NAND непридатною для заміни програмного ПЗП, оскільки більшості мікропроцесорів і мікроконтролерів потрібен довільний доступ на рівні байтів. У той же час саме NAND виявилася ідеальною для виробництва портативних накопичувачів даних — SD-карт і, зрозуміло, флешок.

 

До речі, поява останніх стала можливою лише у 2000 році, коли вартість флеш-пам’яті достатньо знизилася і випуск таких пристроїв для роздрібного ринку міг окупитися. Першим у світі USB-накопичувачем став виріб ізраїльської компанії M-Systems: компактну флешку DiskOnKey (що можна перекласти як «диск на брелоку», оскільки на корпусі пристрою було передбачено металеве кільце, щоб флешку можна було носити разом зі зв’язкою ключів) розробили інженери Амір Баном, Дов Моран та Оран Огдан.

 

За мініатюрний девайс, що був здатний замінити собою п’ять 3,5-дюймових дискет та вміщував 8 МБ інформації, на той час просили $50. Примітно, що у ролі виробника DiskOnKey виступала корпорація IBM. «Локалізовані» флешки нічим не відрізнялися від оригінальних, за винятком логотипа на лицьовій частині, через що багато хто помилково приписує створення першого USB-накопичувача саме американській корпорації.

Перший у світі USB-накопичувач…

…і його американський аналогр

 

Буквально за два місяці у продаж надійшли більш місткі модифікації флешок на 16 та 32 МБ, вартість яких становила відповідно 100 та 150 доларів. Попри дорожнечу, поєднання компактних розмірів, місткості та високої швидкості читання / запису (яка виявилася приблизно в 10 разів вищою, ніж у стандартних дискет) припало до смаку безлічі покупців. І з цього моменту флешки розпочали свою тріумфальну ходу планетою.

 

Слід зазначити, що поява переносних флеш-накопичувачів була б неможливою без розробленої на п’ять років раніше універсальної послідовної шини — Universal Serial Bus (саме так розшифровується звична нам абревіатура USB).

 

Для того щоб підвищити зручність користування персональними комп’ютерами, виробники вирішили створити інтерфейс, що підтримує «гаряче» підключення і не потребує додаткового настроювання, а найголовніше — здатний замінити собою всю різноманітність портів, які існували на той момент (COM, LPT, PS/2, MIDI-port, RS-232 тощо).

 

У результаті низка компаній-розробників комплектуючих, периферії та софту, найбільшими з яких були Intel, Microsoft, Philips та US Robotics, об’єдналися у спробі знайти спільне рішення, яким у результаті став USB. Головним його ідеологом і творцем є інженер Intel Аджай Бхатт.

 

Важливу роль у популяризації нового стандарту USB відіграла корпорація Microsoft, яка додала підтримку інтерфейсу ще в Windows 95 (відповідний патч входив до складу Service Release 2), а потім запровадила необхідний драйвер у релізну версію Windows 98.

 

Сьогодні флешки є невід’ємною частиною нашого життя. Останнє покоління стандарту USB 3.0 (він же USB 3.1 Gen 1, він же USB 3.2 Gen 1, він же SuperSpeed) забезпечує більш високу швидкість передавання даних, підвищену енергоефективність, поліпшену пропускну здатність і паралельний обмін даними. При цьому надається велика потужність для підімкнених пристроїв (до 900 мА порівняно з 500 мА для USB 2.0), що дає змогу заряджати їх набагато швидше. Завдяки зворотній сумісності з попередніми версіями USB усі старі пристрої можна використовувати з новими портами.

 

З удосконаленням технології виробництва безперервно зростає місткість та продуктивність флеш-накопичувачів, а просунуті технології контролю помилок та управління зносом допомагають підвищити надійність та довговічність флешок, що робить їх більш привабливими для споживачів.

 

Поряд із цим попит на оптичні носії даних, такі як компакт-диски та DVD, продовжує знижуватися. Загалом їх використання залишається актуальним лише у спеціалізованих сферах, наприклад, в архівуванні даних, випуску професійної аудіо— та відеопродукції і в тих країнах, де доступ до високошвидкісного Інтернету обмежений. Можливо, формат Blu-ray продовжуватиме розвиватися як стандарт для зберігання та відтворення високоякісного відео, особливо з розвитком технологій відтворення Blu-ray Ultra HD та 4K.

Літій-іонні акумулятори

У 1960-ті роки вчені Роберт Хаґґінс і Карл Ваґнер, які вивчали рух іонів у твердих тілах, у результаті досліджень розробли сполуки, що утворюють ядро літій-іонних акумуляторних батарей. Вибір зупинився саме на літії, оскільки цей метал має найвищу енергетичну щільність, це означає, що літієві акумулятори можуть зберігати більше енергії на одиницю маси та об’єму порівняно з іншими типами акумуляторів.

 

При цьому літій також має високу електричну напруженість, що дає змогу створювати акумулятори з більш високою напругою. А оскільки він є легким елементом, акумулятори на його основі компактні та мають малу масу, що особливо важливо для портативних пристроїв. На додаток до всього переліченого літій забезпечує довгий термін служби і здатний витримувати велику кількість циклів заряджання та розряджання без значної втрати ємності.

 

Проривну технологію, що дозволила створити ранню форму літій-іонної батареї, розробив у 1972 році британський хімік Майкл Стенлі Віттінґем. Однак усі спроби створити комерційно успішні літієві акумулятори довгий час ні до чого не вели — розробки виявлялися надто дорогими та непрактичними. Попри це, дослідження в цьому напрямку тривали — учені з різних країн експериментували з різними матеріалами та конструкціями.

 

Сучасний варіант літій-іонного акумулятора з анодом з графіту і катодом із кобальтиту літію винайшов у 1985 році Акіра Йосіно, хімік з японської корпорації Asahi Kasei. До речі, заслуга у виборі матеріалу для катода належить американцю Джону Ґуденафу, який ще 1980 року довів його ефективність.

 

У 1987 році Йосіно отримав патент на свій винахід, а в 1991 році Sony почала виробляти та продавати перші у світі літій-іонні акумуляторні батареї.

 

У 2019 році Нобелівську премію з хімії було присуджено Джону Ґуденафу, Майклу Стенлі Віттінґему та Акірі Йосіно «за розробку літій-іонних акумуляторів». Як зазначив Нобелівський комітет, «своєю роботою вони створили умови для бездротового суспільства, вільного від викопного палива, і тим самим принесли людству величезну користь».

 

Наразі саме літій-іонні акумулятори є найбільш популярними перезаряджуваними джерелами енергії завдяки своїм унікальним характеристикам: високій питомій енергії, тобто здатності працювати довгий час без підзарядки, тривалому терміну служби, що сягає 2000 циклів заряджання-розряджання, і високій напрузі, що перевищує майже вдвічі показники, наприклад, свинцево-кислотних акумуляторів.

 

І якщо спочатку літій-іонні акумулятори були призначені виключно для живлення портативних приладів, то останнім часом вони все частіше використовуються в різних видах транспорту та стаціонарних накопичувачах енергії. Перспективним напрямком застосування літієвих батарей є підтримка інфраструктури «розумних міст», зокрема зберігання та розподіл енергії.

З покращенням технологій виробництва, безпеки та енергетичної щільності, літій-іонні акумулятори продовжуватимуть розвиватися та знаходити нові сфери застосування, роблячи важливий внесок в енергетику, мобільність і технології зв’язку.

Військові розробки комп'ютерної мережі та народження інтернету

1957 року, коли Радянський Союз запустив у космос перший у світі штучний супутник, у США сприйняли цю подію як серйозну загрозу. Американцям здавалося, що космічні апарати, які перебувають поза зоною дії систем протиповітряної оборони, можуть використовуватися для бомбардувань їхніх міст.

 

Було вирішено прискорити темпи розробок нових систем захисту. З цією метою було створено Агентство перспективних досліджень Міністерства оборони США — ARPA. Саме ця організація вперше зацікавилася можливістю з’єднання розташованих у різних місцях комп’ютерів за допомогою телефонних ліній. Така мережа передавання даних мала функціонувати за умов можливого ядерного конфлікту.

 

Варто зазначити, що такі плани існували також у СРСР. До того ж це були не лише засекречені військові розробки. Ще в 1959 році було запропоновано проєкт цивільної мережі ЗДАС — загальнодержавної автоматизованої системи обліку та обробки інформації, що пов’язує обчислювальні центри збору та обробки даних у різних регіонах країни. Утім, через бюрократизм радянської системи він так і не був реалізований.

 

1962 року Джозеф Ліклайдер опублікував першу детально розроблену концепцію комп’ютерної мережі, підкріплену працями Леонарда Клейнрока в галузі теорії комутації пакетів для передавання даних. Того ж року Пол Беран із RAND Corporation запропонував використовувати систему зв’язаних між собою комп’ютерів, що мають рівні можливості передавання даних, щоб навіть при руйнуванні окремих частин цієї системи вона залишалася працездатною. При цьому дані, що зберігаються на різних комп’ютерах, отримували б додатковий захист, оскільки для їх знищення довелося б ліквідувати всі комп’ютери в мережі.

 

Інформація мала передаватися мережею в цифровому, а не в аналоговому вигляді, і для цього розбиватися на невеликі порції — «пакети», які після приймання в місці призначення наново «збиралися» у повідомлення.

 

У 1967 році розпочалася робота над створенням першої такої мережі ARPANet, і вже в січні 1969 року була запущена система, що зв’язала між собою чотири комп’ютери в різних кінцях США. Так з’явився перший прообраз сучасного Інтернету.

 

До 1971 була розроблена перша програма для відправлення мережею електронної пошти, а в 1973 до ARPANet через трансатлантичний телефонний кабель були підключені перші іноземні організації з Великої Британії та Норвегії, завдяки чому мережа стала міжнародною.

 

До кінця 1970-х років почали розвиватися протоколи передавання даних — набори правил та угод, що визначають способи, засоби та формати обміну інформацією між пристроями у мережі. У 1982-1983 роках мережеві протоколи були стандартизовані. До речі, протокол TCP/IP, що діє з 1 січня 1983 року і дозволяє підключатися до Інтернету за допомогою телефонної лінії, успішно застосовується досі.

 

Завдяки створенню в 1984 році системи доменних імен (DNS) мережа, що зв’язує комп’ютери в усьому світі, стала ще більш доступною і зрозумілою для звичайних користувачів. Тоді ж у ARPANet з’явився серйозний суперник: Національний науковий фонд США (NSF) заснував велику міжуніверситетську мережу NSFNet, складену з дрібніших мереж. NSFNet мала набагато більшу пропускну здатність, ніж ARPANet, тому всього за рік до неї підключилося близько 10 тисяч комп’ютерів.

 

Розроблений в 1988 році протокол Internet Relay Chat (IRC) уможливив спілкування в реальному часі — з’явилися перші чати. А ще через рік, у 1989 році, у США та Австралії з’явилися комерційні інтернет-провайдери, які надавали доступ до мережі власникам персональних комп’ютерів. На той час терпінню військових, які спостерігали, як їхня секретна мережа перетворюється на загальнодоступну, настав кінець. Тому вони відокремили від ARPANet частину для своїх потреб і назвали її MILNet.

 

У той же час у стінах Європейської ради з ядерних досліджень знаменитий британський учений Тім Бернерс-Лі озвучив концепцію Всесвітньої павутини (World Wide Web, або скорочено WWW) — систему гіпертекстових документів, які можна було переглядати за допомогою браузера. Гіпертекст — це вид тексту, який існує лише в електронному вигляді. Від звичайного тексту його відрізняє наявність гіперпосилань — переходів на інші електронні документи. Відповідно, до появи електронних посилань — зв’язків-переходів між об’єктами в Інтернеті — гіпертексту просто не існувало.

 

Протягом двох років Бернерс-Лі розробив протокол HTTP, мову HTML та ідентифікатори URL, завдяки чому 1991 року Інтернет почав працювати у звичному для нас сьогодні розумінні. До слова, Бернерса-Лі часто так і називають — «батьком Інтернету». Примітно, що вперше термін «інтернет» використовувався ще у грудні 1974 року — тоді цим словом називали сукупність мереж, пов’язаних між собою спільним протоколом. Сьогодні ж Інтернетом прийнято називати ту саму Всесвітню павутину WWW, якою користуються мільярди людей у світі.

 

У 1990 році припинив свою роботу ARPANet, повністю програвши конкуренцію NSFNet. А в 1995 році і NSFNet також перестав існувати, поступившись місцем Всесвітній павутині, що стрімко набирала популярність. WWW перетворила Інтернет з академічної та військової мережі на глобальну платформу для обміну інформацією, комерції, розваг та соціальної взаємодії. Простота та універсальність WWW зробили Інтернет доступним та привабливим для мільярдів користувачів.

 

Значною новацією була поява браузера Mosaic, за допомогою якого стало можливим публікувати в мережі не лише текст, а й графічні зображення. Через кілька років на основі Mosaic був створений Internet Explorer, який уможливив звичний для всіх сьогодні перегляд веб-сайтів.

 

Зі зростанням популярності інтернету до кінця 1990-х з’явилися перші онлайн-магазини (Amazon), електронні аукціони (eBay), цифрові платіжні системи (PayPal), онлайн-банки та інші комерційні організації. Цей період був справжнім проривом у галузі онлайн-торгівлі, і його вплив відчувається й сьогодні.

 

Бум електронної комерції у 1990-ті роки започаткував нову еру у світі бізнесу. Те, що почалося як експеримент, перетворилося на багатомільярдну індустрію, яка продовжує зростати і розвиватися, адаптуючись до мінливих потреб і технологій.

 

На початку XXI століття Інтернет остаточно став головним світовим майданчиком для отримання інформації, спілкування, а також культурної діяльності. У 2001 році почала працювати Вікіпедія — глобальна світова енциклопедія, яка стала обнією з найбільших за всю історію. З’являлися перші соціальні мережі, наприклад Youtube — найбільший на сьогоднішній день відеохостинг.

 

З розвитком мобільних технологій у 2000-х роках Інтернет став ще більш доступним. Смартфони і планшети дали людям змогу бути онлайн у будь-якому місці та будь-коли.

 

Відтоді технології постійно рухаються вперед, а Інтернет є невід’ємною частиною життя більшості людей у всьому світі. Інформації стає більше, з’єднання стає швидшим, а багато нових винаходів з’являються завдяки Інтернету та його розвитку.

 

Сьогодні Інтернет — це не лише інформація та комерція, а й соціальні мережі, стримінгові сервіси, хмарні технології та багато іншого. Інтернет впливає на всі сфери нашого життя — від розваг та освіти до бізнесу й політики. Доступ до Інтернету наразі мають майже 70 % жителів нашої планети, і ця кількість продовжує зростати завдяки розвитку технологій зв’язку й зусиллям багатьох країн та організацій з розширення доступу до Інтернету у віддалених та малообслуговуваних регіонах. Важливу роль у цьому відіграв запущений у 2019 році Ілоном Маском проєкт Starlink — глобальна система штучних супутників, завдяки якій доступ до Інтернету можливий майже з будь-якої точки земної кулі.

 

Перспективи Інтернету пов’язані з його постійним розвитком та покращенням технологій. Наприклад, з розширенням інтернету речей (IoT), віртуальної реальності (VR) та штучного інтелекту (ШІ) Інтернет стає більш інтегрованим у повсякденне життя людей. Очікується, що збільшення його швидкості та розширення покриття також приведуть до нових можливостей у сферах телекомунікацій, медицини, автоматизації, транспорту та ін. Однак разом із цим виникають і нові виклики, такі як питання кібербезпеки, конфіденційності даних та цифрової нерівності, які потребують уваги та вирішення.

Клонування організмів

У 1903 році професор ботаніки Герберт Джон Веббер почав використовувати термін «клон» (у перекладі з грецької — гілочка, пагін) для позначення створення нової рослини з гілки. Оскільки рослини-нащадки проростали не з насіння, вони точно повторювали якості вихідної рослини і ставали основою для виведення нового сорту садової культури. Пізніше клоном стали називати будь-який організм, генетична інформація якого ідентична генетичній інформації іншого організму. А спосіб отримання клонів відповідно назвали клонуванням.

 

Серйозно вивчати клонування як науковий метод відтворення копій живих організмів почали у 1952 році, коли дослідники вперше перенесли клітинне ядро пуголовка до яйцеклітини та отримали його ідентичні копії. У наступні десятиліття дослідження в цій галузі безперервно тривали, але великого інтересу громадськості ця тема не викликала. Поки в середині 1990-х не відбулася подія, після якої про клонування почали говорити навіть зовсім далекі від біології люди.

 

Такою подією стала поява 5 липня 1996 року першого клонованого ссавця — овечки Доллі, яка була генетичною копією вівці — донора генетичної інформації. Примітно це було ще й тому, що саме Доллі стала першою теплокровною твариною, яка була отримана з клітини вже померлого на той час донора. Іншими словами, було підтверджено, що відтворити точну копію живого організму можна навіть після його смерті. Головне — щоб залишалася неушкоджена клітина з ДНК, тобто молекулою, яка зберігає генетичний код.

 

Доллі народилася у Великій Британії. Спочатку вона не мала імені, а лише лабораторний ідентифікаційний код 6LL3. Ім’я Доллі (у перекладі з англійської — лялечка) з’явилося пізніше за пропозицією одного з ветеринарів, які брали участь в експерименті.

 

Усе своє життя Доллі прожила в Рослінському інституті в Мідлотіані. Вона нічим не відрізнялася від звичайних овець і навіть народила загалом шестеро ягнят. З міркувань безпеки Доллі мало виводили відкрито пастись з іншими вівцями, і більшу частину часу вона проводила в закритому приміщенні. У результаті через малорухливий спосіб життя в 2001 році у неї розвинулося захворювання суглобів — артрит. А 14 лютого 2003 року на сьомому році життя Доллі довелося приспати — на той час до артриту додалося важке захворювання легень.

 

Частина вчених пояснювала смерть Доллі причинами, що ніяк не пов’язані з клонуванням: інші вівці часто мають такі самі хвороби. Інші фахівці наполягали на тому, що ранню смерть (зазвичай вівці живуть 10–12 років) викликало прискорене старіння організму, причину якого вони бачили саме в клонуванні.

 

Хай там як, Доллі стала найвідомішою вівцею в історії науки. 9 квітня 2003 року її опудало було виставлене у Королівському музеї Шотландії.

 

Експеримент із клонування Доллі мав величезне наукове значення. Надалі вчені провели експерименти з клонування інших ссавців: коней, биків, котів, собак, мишей, кіз, свиней, корів. Набагато важче виявилося клонувати мавп — отримані клони помирали невдовзі після народження. Лише через 21 рік після експерименту з Доллі вдалося створити життєздатних клонованих мавп, застосувавши нові технології перенесення генетичного матеріалу. Крім того, було з’ясовано, що тривалість життя клонів, як правило, не дуже відрізняється від тривалості життя звичайних тварин цього ж виду.

 

Головним питанням, яке цікавило громадськість, був потенціал технології клонування для людини. Ця тема почала обговорюватися в пресі та масовій культурі. Незабаром у фільмах та комп’ютерних іграх клони не лише тварин, а й людей перестали бути чимось незвичайним.

 

Тим часом деякі вчені давали прогнози, згідно з якими до клонування людини залишалося лише десяток років. Однак у міжнародному співтоваристві було ухвалено угоду про те, що створення клонів людей є неприйнятним через порушення принципів людської гідності та самовизначення. Створення людських клонів порушує серйозні етичні питання про те, як поводитися з живими істотами, які можуть мати таку ж генетичну спадщину, як і люди. У результаті уряди більшості країн обмежили фінансування та підтримку подібних досліджень, заборонивши розробки, спрямовані на клонування людини.

 

Разом із тим клонування може бути використане як для збереження видів, що вимирають, так і для отримання штучних — трансгенних — видів і порід. 2003 року було оголошено про клонування вимерлого піренейського цапа. Утім, клон помер лише через кілька хвилин після народження.

 

А групою вчених з Оксфордського університету під керівництвом Бет Шапіро ведуться експерименти з відродження доісторичного птаха дронта. Крім того, у майбутньому клонування може бути використане для відродження таких тварин, як мамонти і динозаври.

Цифрова революція

На початку XXI століття з’явилися масові публікації про третю промислову революцію, яка отримала назву «цифрова революція». Цим терміном позначали повсюдний перехід у виробництві до застосування інформаційно-комунікаційних технологій, поширення яких розпочалося у другій половині ХХ століття. Основними рушійними силами цифрової революції стали широке розповсюдження персональних комп’ютерів, всеосяжне проникнення Інтернету та масове застосування персональних портативних комунікаційних пристроїв — смартфонів.

 

Варто зауважити, що обчислювальні машини та перші комунікаційні технології з’явилися ще наприкінці XIX століття і стали важливою складовою другої промислової революції. Але саме цифрові технології спричинили якісні зміни в житті людства.

 

Спочатку на зміну механічним обчислювальним машинам прийшли цифрові комп’ютери, а потім, після їх появи, став можливим цифровий зв’язок, що замістив аналогові сигнали телеграфу та телефону. Принциповою відмінністю цифрового формату є можливість виготовлення копій, повністю ідентичних до оригіналу. Наприклад, у цифровому зв’язку ретрансляційне обладнання передає сигнал, у якому інформація на виході така сама, як на вході, — без втрат та спотворень.

 

Не менш важливе значення має можливість легкого переміщення цифрової інформації між різними пристроями, а також отримання доступу до неї або поширення дистанційно.

 

Мабуть, вихідною точкою цифрової революції став перехід від аналогової до цифрової музики, коли у 1980-х роках формат оптичних компакт-дисків поступово витіснив вінілові платівки та касети. Подальше поширення персональних комп’ютерів та поява мережі Інтернет сприяли поширенню цифрової інформації. А до кінця першого десятиліття XXI століття, коли майже половина населення планети вже користувалася мобільними телефонами, практично завершився перехід від аналогових форматів до цифрових у всіх сферах людської діяльності.

 

Цифрова революція сприяла формуванню постіндустріального суспільства, тобто такого, в економіці якого основний акцент робиться не так на промислове виробництво як таке, а на інновації та високі технології. Образно кажучи, у такому суспільстві замість того, щоб зробити тисячу надійних та міцних лопат, роблять один високопродуктивний екскаватор із комфортною кабіною, обладнаною кондиціонером та стереодинаміками.

 

У постіндустріальному суспільстві більшість населення задіяна не у промисловому виробництві, а у сфері послуг. На перший план для працівників виходить освіта, професіоналізм, здатність до навчання та творчий підхід. А головною рушійною силою економіки стають наукові розробки.

 

Іншими словами, рівень економіки тієї чи іншої країни залежить від здатності придумати технічну новинку (наприклад, якийсь високотехнологічний смартфон), а не виготовити її (заводи для складання смартфонів можна побудувати в будь-якій країні — для того, щоб зібрати виріб із готових компонентів, дуже висока кваліфікація співробітника не потрібна).

 

Третя промислова революція суттєво змінила способи виробництва, споживання, спілкування та мислення людей. Цифрові технології створили нові можливості для інновацій, зростання бізнесу та покращення якості життя. Але поряд із питаннями безпеки необхідно вирішувати потенційні етичні проблеми, пов’язані з використанням даних.

Як використовувати світловий тиск

Ще 1899 року фізик Петро Миколайович Лебедєв побудував експериментальну установку, яка складалася з дуже легкого стрижня, підвішеного на скляній нитці в колбі з вакуумом. Із двох боків до стрижня були прикріплені легкі пластини: одна — чорна, а інша — дзеркальна. Створивши в колбі максимально можливе розрідження та рівномірно освітлюючи пластини, учений досяг того, що стрижень почав обертатися. Таким чином було підтверджено припущення Максвелла про наявність світлового тиску — впливу фотонів на поверхні тіл. Обертання стрижня відбувалося через те, що світло діяло на дзеркальну пластинку сильніше, ніж на чорну.

 

І хоча світловий тиск зовсім не такий самий, як тиск газу, однак з’явилася ідея про те, що світло можна використовувати як рушійну силу. Примітно, що ще Йоганн Кеплер у своєму листі до Галілея у 1610 році натякав на аналогію між сонячним світлом та вітром у земній атмосфері. А якщо це так, то можна побудувати космічний корабель із сонячним вітрилом, який пересуватиметься під впливом світла подібно до морського вітрильника, що приводиться в рух вітром.

 

Проблема полягала у тому, що сила впливу світла дуже мала. На квадратний метр дзеркальної поверхні сонячне світло впливає із силою, що становить лише 9,08 мікроньютона — це приблизно в 1 100 000 разів менше від сили тяжіння на поверхні Землі.

 

Однак якщо зробити дзеркальне вітрило досить великим, але при цьому легким, то імпульсу, отриманого від сонячного світла, буде достатньо для переміщення космічного корабля. До того ж позитивним фактором є відсутність у космосі щільного середовища, яке зазвичай заважає розганятися в атмосфері нашої планети. Достатньо розгорнути дуже тонку дзеркальну плівку площею, що вимірюється сотнями тисяч квадратних метрів, — і сумарний імпульс, який буде отримувати від сонячного світла ця поверхня, становитиме досить серйозне значення. Така конструкція отримала назву сонячного вітрила.

 

Звичайно, до початку освоєння космосу ця ідея не розглядалася вченими серйозно, оскільки перед ними стояло інше завдання — вивести космічний апарат за межі земної атмосфери. Однак на початку 1960-х років, з початком перших космічних польотів, про сонячне вітрило знову згадали.

 

Одним із найпослідовніших популяризаторів цієї концепції був астрофізик Карл Саґан.

 

Учених приваблювала можливість отримання космічним кораблем нехай і невеликого, але постійного прискорення. При цьому абсолютно без витрат палива. І навіть якщо космічний апарат буде прискорюватися із зовсім незначним розгоном, але постійно, то вже через півроку-рік він здатний розвинути швидкість, співставну з максимальною швидкістю інших космічних апаратів, створених людиною.

 

Але на практиці все виявилося не так просто. Різні проєкти на основі сонячного вітрила регулярно розроблялися в останній чверті XX століття, однак жодний із них так і не був реалізований. Максимум, що використовувалося в космічних апаратах, — це зміна становища сонячних панелей під механічною дією сонячного світла.

 

21 червня 2005 року в космос стартувала ракета з прототипом космічного апарата із сонячним вітрилом «Космос-1», розробленим Планетарним товариством — некомерційною організацією, започаткованою Карлом Саґаном. Проте ракета так і не дісталася орбіти і впала в океан.

 

І лише запущений 2010 року Агентством аерокосмічних досліджень Японії зонд IKAROS уперше в історії зміг розгорнути своє сонячне вітрило у відкритому космосі. IKAROS (абревіатура від Interplanetary Kite-craft, Accelerated by Radiation оf Sun — міжпланетний повітряний змій, що прискорюється сонячним випромінюванням) був апаратом масою 315 кг, а його вітрило у вигляді квадрата зі стороною 14 метрів складалося з алюмінійованої пластикової мембрани завтовшки всього 0,0075 мм, покритої тонкоплівковими сонячними елементами, які служили для живлення приладів на борту апарата. За допомогою сонячного вітрила IKAROS зміг не лише набрати додаткову швидкість в 400 м/с, але й керувати напрямком, змінюючи кут падіння сонячних променів — зовсім як справжня вітрильна яхта.

 

Згодом було запущено ще кілька апаратів із сонячним вітрилом. Концепція, постійно удосконалюючись, стала частиною космічних програм. Особливо ефективне сонячне вітрило для польотів, які в будь-якому випадку можуть займати роки і десятиліття, наприклад, до зовнішніх планет Сонячної системи або у міжзоряному просторі.

 

Але є у сонячного вітрила і свої недоліки. Наприклад, мало просто розігнати корабель у космосі, його ще треба загальмувати біля цілі. А у разі міжзоряного перельоту на вітрило діятиме не лише світло Сонця, але й інших зустрічних зірок. При цьому світло однієї зірки розганятиме, а іншої — гальмуватиме. Та й для того, щоб ефективно прискорювати вантажі, маса яких вимірюється тоннами, площа сонячних вітрил має вимірюватися гектарами та квадратними кілометрами.

 

Однак технології не стоять на місці, і вчені постійно працюють над їх удосконаленням. Тому цілком можливо, що вже досить скоро у космічних просторах з’являться космічні вітрильники, які перевозитимуть вантажі між планетами.

Кіберфізична революція та Епоха уяви

У 2011 році група бізнесменів, політиків та науковців, які розробляють стратегію високих технологій для уряду Німеччини, заявили про початок четвертої промислової революції, яку також назвали кіберфізичною. Пізніше виконавчий голова Світового економічного форуму Клаус Шваб представив цей термін ширшій аудиторії у статті, опублікованій журналом Foreignaffers. А у 2016 році «Освоєння четвертої промислової революції» стало однією з тем на щорічному Всесвітньому економічному форумі в Давосі.

 

До речі, цей форум часто називають «зборами правителів Землі» через його високий профіль та обговорення питань, що стосуються світового управління й координації. І справді, зміни, пов’язані з кіберфізичною революцією, уже незабаром охоплять різні аспекти життя: ринок праці, життєве середовище, політичні системи, технологічний устрій та інші сфери діяльності людини.

Очікується, що ця епоха принесе із собою прориви в нових технологіях у таких галузях, як робототехніка, штучний інтелект, нанотехнології, квантові обчислення, біотехнології, інтернет речей, децентралізований консенсус, бездротові технології п’ятого покоління, 3D-друк та повністю автономні транспортні засоби.

 

По суті, четверта промислова революція приведе до повної автоматизації виробничих процесів та обміну даними за допомогою кіберфізичних систем CPS. Говорячи простими словами, кіберфізичні системи, на відміну від звичайних комп’ютерів, є цілим «організмом» з безліччю елементів введення інформації (різні датчики, відеокамери, сканувальні пристрої тощо) і виконавчих пристроїв (приводів, робочих механізмів, засобів переміщення).

 

Інформація, отримана від зовнішнього світу, а не від заданих програм, обробляється інтелектуальними обчислювальними системами, після чого на виконавчі механізми надходять команди для виконання тієї чи іншої дії. Якщо дуже спрощено, то людині достатньо повідомити про своє бажання мати футболку з гарним принтом, а кіберфізична система самостійно зніме всі необхідні мірки, підбере тканину, створить викрійки і зробить готовий виріб, який точно відповідатиме побажанням замовника.

 

Постійні досягнення науки та техніки покращують зв’язок між обчислювальними та фізичними елементами за допомогою інтелектуальних механізмів, підвищуючи адаптивність, автономність, ефективність, функціональність, надійність, безпеку та зручність використання кіберфізичних систем.

 

Поширення кіберфізичних систем відбуватиметься відразу в кількох напрямках, таких як:

  • втручання (наприклад, запобігання зіткненням);
  • точність (наприклад, роботизована хірургія або нановиробництво);
  • робота в небезпечних або недоступних умовах (наприклад, пошуково-рятувальні операції, пожежогасіння або глибоководні дослідження);
  • координація (наприклад, керування повітряним рухом або транспортними потоками);
  • ефективність (наприклад, управління автономними будинками з нульовим енергоспоживанням);
  • розширення людських можливостей (наприклад, у галузі надання медичної допомоги або моніторингу складних процесів).

Звісно, машини не можуть замінити глибоких знань. Але вони, як правило, більш ефективні, ніж люди, при виконанні повторюваних функцій, або в критичних умовах, не пристосованих для існування людського організму. А поєднання машинного навчання та обчислювальної потужності дозволяє машинам виконувати дуже складні завдання.

 

Четверту промислову революцію також називають початком Епохи уяви. Річ у тім, що роботи замінять людину в усіх галузях, пов’язаних із обробкою інформації, і тим паче з фізичною працею.

 

Тому головною цінністю людей стане їхня здатність до творчості — те, чого не можуть навіть найдосконаліші машини. Епоха уяви змінить сучасну інформаційну епоху, коли основним видом діяльності є аналіз та мислення. Поява віртуальної реальності, що забезпечує повне занурення людини у штучний кіберпростір, або метавсесвіт, зробить «роботу уяви», яку сьогодні виконують дизайнери, художники, письменники та композитори, більш цінною, ніж раціональне мислення інженерів та програмістів, чия праця сьогодні є основою світової економіки.

Бозон Гіґґса, або Частка Бога

У середині XX століття з появою ядерної фізики вчені відкрили багато нових фактів про будову речовини. Для позначення «цеглинок», із яких складається навколишній світ, вони почали використовувати термін «елементарна частина», тобто така частинка, яку неможливо розділити на менші компоненти. Утім, як з’ясувалося пізніше, навіть складові атомів — адрони — поділяються на ще дрібніші кварки, а ті, у свою чергу, складаються з неймовірно мікроскопічних так званих струн. Але від поняття «елементарна частина» вирішили не відмовлятися, а стали позначати їм будь-які частинки мікросвіту.

 

Узагальнюючи результати експериментів з прискорювачами частинок, фізики створювали теорії, які пояснюють різні явища, що відбуваються лише на рівні мікросвіту — молекул та атомів. Однією з найуспішніших у цьому напрямку стала так звана стандартна модель, яка описує властивості елементарних частин та їхню взаємодію між собою.

 

У 1964 році відразу кілька вчених-фізиків незалежно один від одного передбачили існування в рамках стандартної моделі елементарної частини, завдяки якій у решти частинок з’являється маса. Найбільш докладно цю частинку описав британський фізик Петер Гіґґс, за ім’ям якого вона отримала назву «бозон Гіґґса».

 

Сам Гіґґс отримав за свою наукову працю Нобелівську премію.

 

Сенс бозона Гіґґса полягає в тому, що без нього всі частинки були б безмасовими, і світ, яким ми його знаємо, був би зовсім іншим. На думку фахівців, саме він дає розуміння початку Всесвіту: у перші миті після Великого вибуху — події, унаслідок якої виник весь навколишній світ, — взаємодія з бозонами Гіґґса наділила всі існуючі частинки їх властивостями, іншими словами, буквально створила все навколо. У 1993 році для позначення важливості відкриття бозона Гіґґса фізик Леон Ледерман навіть використовував термін «частинка Бога». Пізніше ця гучна фраза стала популярною у засобах масової інформації.

 

У вересні 2008 року був запущений Великий адронний колайдер — величезний прискорювач частинок, що є кільцеподібним тунелем діаметром 27 кілометрів. Однією з цілей створення такої грандіозної споруди, у будівництві якої брали участь понад 10 тисяч учених та інженерів більш ніж зі 100 країн, було саме виявлення гіґґсівського бозона.

 

4 липня 2012 року на науковому семінарі Європейської ради ядерних досліджень було викладено попередні результати експериментів. Детекторам колайдера вдалося зафіксувати нову частинку, яка за своїми властивостями відповідала теоретичному опису бозона Гіґґса. До березня 2013 року дослідники підтвердили, що знайдена раніше частинка дійсно ним і є.

 

Виявлення «частинки Бога» не тільки підтвердило стандартну модель, але й дало можливість детальніше вивчити властивості бозона Гіґґса. Завдяки цьому можуть бути відкриті нові фізичні явища, а можливо, і методи зміни існуючих властивостей матерії.

Квантові комп'ютери

У 1980-ті роки вчені вирішили об’єднати інформатику, тобто розділ науки, який вивчає обробку інформації, з квантовою механікою — розділом фізики, що описує поведінку природи на рівні атомів і ще дрібніших частинок. Було розроблено спеціальні квантові алгоритми, які теоретично доводили можливість обробки інформації в паралельних станах та вирішення певних завдань більш ефективно. Наприкінці 1990-х з’явилися перші квантові комп’ютери, які продемонстрували здійсненність технології.

 

На відміну від класичних, які використовують біти для подання інформації у вигляді 0 і 1, квантові комп’ютери використовують кубіти, які можуть перебувати в стані 0, 1 або в суперпозиції цих станів, тобто одночасно в 0 і 1. І якщо перший квантовий комп’ютер, який з’явився у 1998 році, був двокубітним, то до 2019 року фахівцям Google та NASA вдалося розробити 54-кубітну машину, значно знизивши при цьому частоту помилок при обчисленнях.

 

У тому ж 2019 році компанія IBM на виставці CES 2019 представила першу у світі квантову систему, що є не просто науковою розробкою, а цілком придатним для комерційного застосування продуктом. Квантовий комп’ютер IBM Q System One, що включає систему з 20 кубітів, здатний самоналаштовуватися. А високоефективна кріогенна система забезпечує зменшення кількості можливих помилок під час обчислень.

 

При цьому важливою характеристикою, яка відрізняє цей квантовий комп’ютер від інших подібних машин, є можливість його підключення до хмарної системи, завдяки чому квантові обчислення можуть повноцінно використовуватися для потреб бізнесу та систем користувачів.

 

На що здатний квантовий комп’ютер:

  • ефективно обробляти великі числа, що може використовуватися для зламування деяких наявних методів шифрування і, навпаки, створення більш безпечних систем захисту даних;
  • вирішувати завдання пошуку у великих базах даних або оптимізації параметрів у складних системах, наприклад, у виборі транспортних маршрутів або підвищенні ефективності перевезень у логістиці;
  • моделювати квантові системи, наприклад, імітувати поведінку молекул для розробки нових матеріалів;
  • ефективно обробляти дані для прискорення певних видів машинного навчання, будучи основою штучного інтелекту;
  • вирішувати специфічні математичні завдання.

а практиці квантові комп’ютери можуть використовуватися для розробки нових матеріалів та ліків, знижувати витрати у складних бізнес-процесах, навчати штучний інтелект, гарантувати безпеку передавання даних та зберігання інформації

 

Проте слід зазначити, що на даний момент квантові комп’ютери все ще перебувають на стадії досліджень, і доведеться вирішити багато технічних та інженерних проблем, перш ніж вони отримають по-справжньому значне поширення в різних сферах людської діяльності. Розвиток алгоритмів, підвищення стійкості квантових бітів та створення великих і стабільних квантових систем — ключові аспекти, які потребують подальших досліджень та інвестицій.

Життя на Марс

У жовтні 2016 року американський інженер та мільярдер Ілон Маск на конференції Mars Society виступив зі своїм баченням майбутньої колонізації Марса та планами для досягнення цієї мети. «Ми маємо перейти від розвідувальних місій до будівництва повноцінного міста», — заявив амбітний підприємець.

 

Заснована Маском компанія SpaceX працює над розробкою космічного корабля, здатного долетіти до Червоної планети за три місяці й перевезти достатню кількість матеріалів для будівництва бази.

 

Космічний корабель, який отримав назву Starship (Зоряний корабель), є найбільшим за масою та розмірами за всю історію — він приблизно втричі перевищує розміри звичайного шатла. При цьому кожен із розгінних ступенів ракети-носія буде багаторазового використання, що дасть змогу знизити вартість перельоту для майбутніх колонізаторів до 200 тисяч доларів з особи. Усього ж корабель вміщатиме до 100 таких переселенців, які скрасять час перельоту до Марса переглядом кінофільмів, лекціями та іграми, адаптованими до умов невагомості.

 

За задумом Маска, марсіанська колонія з населенням близько мільйона осіб буде існувати на повному самозабезпеченні, а для остаточного облаштування на непристосованій для життя планеті може знадобитися близько ста років. Для демонстрації серйозності своїх намірів щодо будівництва марсіанського поселення Маск заявив про готовність розпродати все своє майно заради фінансування проєкту.

 

Хоча Марс і є найбільш реалістичним варіантом для колонізації, ця планета не дуже підходить для проживання на ній. Атмосфера Марса більш ніж на 95 % складається з вуглекислого газу, а середня температура становить близько –60 °С. До того ж через відсутність озонового шару поверхня планети постійно піддається смертоносному космічному випромінюванню. Тому важливою умовою для успішної колонізації Марса є тераформування, тобто використання різних технологій для зміни його клімату, щоб створити сприятливі умови для життя людей без необхідності використання закритих житлових модулів.

 

За словами того ж Маска, зробити планету схожою на Землю можна за допомогою термоядерних вибухів над полюсами Марса, щоби достатньо нагріти атмосферу для створення парникового ефекту. Австралійський професор Серкан Сайдам стверджує, що одним із перших кроків у марсіанській місії буде пошук води, яку можна отримати з льоду або гідратованих (таких, що містять вологу) мінералів. Вода своєю чергою дасть змогу вирощувати їжу та насичувати атмосферу Червоної планети киснем.

 

За словами Маска, перші пілотовані польоти на Марс можливі вже у найближче десятиліття. Утім, реалізація планів з колонізації Червоної планети залежатиме від багатьох факторів, таких як технологічний прогрес, фінансування, безпека та громадська підтримка.