Постепенно мыли перешли к запретному эксперименту «Эврика». Альтаир в который раз сказал сам себе, что Эрика права, что одержимость была опасна, она могла привести к необратимым последствиям. Но и забыть о своём исследовании Альтаир не мог. Это было слишком важно. Слишком личностно.
Внезапный толчок вырвал его из раздумий. Корабль вздрогнул, заставив Альтаира крепче сцепиться с ремнями. «Это уже не просто маневр. Это что-то более серьезное», — тревожно подумал парень.
Вибрация стен, странная рябь обзорного экрана, хаос импульсов от нейрочипа, словно подтверждали его догадку. А потом на экране появился Константин Иванович и призвал экипаж сохранять спокойствие.
— Произошло столкновение с микрометеоритом, — вещал он, — повреждение не критичные. Всем, кроме инженерного состава, оставаться на своих местах. Не отстегивайте ремни безопасности. Повторяю, запрещается отстегивать ремни безопасности. Инженерному составу приступить к тестированию всех систем корабля.
Альтаир не являлся инженером. Потому ему оставалось только ждать. И он ждал, лежа на кровати, пристегнутый ремнями безопасности. Неизвестно действовала удручающе.
Внезапно нейрочип подал сигнал вызова. Это был Михаил.
— Привет, Альтаир, — сказал он, — ты там… не переживай. Все нормально. Мы проверяем системы корабля, ничего критического не происходит.
— Хорошо, пап, — ответил Альтаир.
— А почему никто не выходит в открытый космос, чтобы проверить обшивку? — спросил Альтаир, когда помогал отцу с тестами бортового компьютера.
— Зачем? Для этого есть роботы.
— Но мы же проверяем после роботов глазами. Не доверяем им. А что если и камерам нельзя доверять?
Михаил в ответ снисходительно рассмеялся.
— Камеры они просто фиксируют изображение. А роботы используют алгоритмы компьютерного зрения, чтобы распознать дефекты. Это совсем разные вещи.
— А в чем разница? И то и другое — техническое средство же.
— Ты, похоже, плохо разобрался в том, как работают алгоритмы компьютерного зрения и вообще искусственный интеллект. Иди и прочитай еще раз.
— Нет, я хорошо разобрался.
И он начал пересказ:
— В основе искусственного интеллекта лежат искусственные нейронные сети, которые являются совокупностями математических моделей связанных друг с другом нейронов. Типичная модель нейрона — это сумма входных сигналов, умноженных на весовые коэффициенты, к которой применяется специальное нелинейное преобразование…
— Не продолжай. Вижу, что выучил. Ты лучше скажи, в чем кардинальное отличие между нейросетями и строгими алгоритмами?
— Строгие алгоритмы дают точный и гарантированный результат. Нейросети дают вероятностный результат, его правильность не гарантируется на сто процентов.
Михаил кивнул, удовлетворённо поглядывая на сына.
— Верно. Строгий алгоритм, как швейцарские часы, работает чётко по инструкции. Если входные данные верны, результат будет всегда один и тот же. Нейросеть же — это более гибкий инструмент. Она обучается на примерах, и её ответ зависит от того, как она была обучена, и какие данные ей предоставлены. Она может найти закономерности, которые не заметны для строгого алгоритма, но она также может делать ошибки, особенно если данные шумные или неполные.
Он подошёл к огромному панорамному экрану, за которым раскинулось бескрайнее звёздное небо.
— Понимаешь, Альтаир, роботы с алгоритмами компьютерного зрения — это как раз такие строгие алгоритмы. Они ищут конкретные дефекты на обшивке — трещины, вмятины, и т. д. Если дефект соответствует заданному образцу, робот его обнаружит. Если нет — нет. Но что если появится нечто неизвестное, что-то, чего не было в обучающей выборке? Робот его просто не заметит. Нейросети частично решают эту проблему. Они могут на основании обучающей выборки делать обобщения и даже обнаруживать как раз таки новые дефекты. Но, бывает, что они ошибаются: хороший участок обшивки принимают за дефектный, а дефекты иногда пропускают.
Михаил повернулся к сыну, его взгляд стал серьёзнее.
— А человеческий глаз… человеческий глаз — это как гибридная система. В нём сочетаются и строгие алгоритмы обработки изображения, и нечто более сложное, интуитивное, способное распознать аномалию, даже не понимая, что это за аномалия. Поэтому мы и проверяем после роботов. Чтобы исключить случайные пропуски.
Он похлопал сына по плечу.
— Так что ты прав, задавая свои вопросы. Доверие к технике — это хорошо, но полного доверия быть не должно. Всегда нужно быть готовым к неожиданностям. И помни об этом, когда будешь работать со своими нейросетями. Они могут дать верный ответ, но они также могут обмануть. Критическое мышление — это важнейший инструмент учёного. Даже в 2643 году.