Повна версія

Головна arrow Інформатика arrow Інформаційні технології в менеджменті

  • Увеличить шрифт
  • Уменьшить шрифт


<<   ЗМІСТ   >>

Методи збору та аналізу інформації в управлінській діяльності

У найзагальнішому вигляді методи збору інформації, які застосовуються у сфері управління, можна розділити на дві групи: промислове шпигунство та аналітична робота. Перший з наведених методів - промислове шпигунство - в основному відноситься до отримання конфіденційної інформації та буде розглянуто пізніше, а в даній главі приділимо увагу аналітичній роботі.

В умовах постійно змінюються економічних відносин, утворення нових організацій, розвитку і вдосконалення вже працюючих на ринку організацій-конкурентів виникає велика потреба у проведенні аналітичної роботи. З'являється необхідність збору та накопичення інформації, досвіду, знань у всіх областях управлінської діяльності. Організація зацікавлена в докладному дослідженні виникають на ринку ситуацій для прийняття оперативних, економічно обґрунтованих рішень, які дозволять їй розвиватися більш швидкими темпами.

Аналіз є одним з найбільш ефективних і безпечних способів добування інформації. Використовуючи відкриті інформаційні ресурси, можна отримати практично всі необхідні відомості про організацію. Процес отримання важливих відомостей на основі синтезу інформації з безлічі відкритих джерел будемо називати аналітичною роботою. Вона складається з наступних етапів.

Визначення кола вихідної інформації, необхідної для аналізу, а також способів її отримання.

Інтерпретація інформації, тобто виявлення справжнього значення тієї чи іншої інформації. У першу чергу в інтерпретації потребує інформація, отримана в усній формі, так як часто те чи інше висловлювання буває зрозуміле перекручено, причиною тому можуть стати іноземна мова, інтонація, жести, сленг, фрази, вирвані з контексту або неправильно поняті, і т.п .

Виділення сторонньої інформації - один із самих складних і відповідальних етапів. Надлишок інформації, так само як і її недолік, являє собою серйозну проблему, ускладнює і уповільнює ведення аналітичної роботи. На практиці більший ефект приносить зосередженість на декількох ключових деталях, ніж розкидання між багатьма розрізненими даними. Разом з тим саме на цьому етапі існує небезпека втратити важливу інформацію. Як правило, це відбувається у випадку неправильної інтерпретації відомостей на попередньому етапі.

Оцінка інформації - розстановка джерел інформації, самої інформації і способів її отримання в залежності від їх надійності та достовірності. Джерелом інформації можуть бути конкретні люди, газети, телебачення, сайти мережі Інтернет тощо При оцінці інформації обов'язково присутній суб'єктивність, яку необхідно звести до мінімуму. Як правило, для цього застосовують наступну систему оцінок.

1. Оцінка джерела:

А - надійний;

Б - зазвичай надійний;

В - досить надійний;

Г - не завжди надійний;

Д - ненадійний;

Е - джерело невстановленої надійності.

2. Оцінка інформації:

I - підтверджена іншими фактами;

II - ймовірно правдива (правдива на 75%);

III - можливо правдива (правдива на 50%);

IV - сумнівна (правдива на 25%);

V - неправдоподібна;

VI - достовірність не піддається визначенню.

3. Оцінка способу отримання інформації:

I - отримання інформації самостійно (бачив, чув сам тощо);

II - отримання інформації через постійне джерело (інформатор, відкриті джерела тощо);

III - отримання інформації через разовий джерело (випадково підслухана розмова, чутки тощо).

На етапі оцінки необхідно встановити, наскільки інформація може відповідати істині. При цьому слід враховувати, що можна отримати не відповідну істині інформацію наступних типів:

  • • дезінформація, доведена до відома джерела;
  • • інформація, навмисно чи ненавмисно спотворена джерелом;
  • • інформація, довільно або мимоволі змінена в ході передачі.

При навмисної дезінформації застосовуються явна брехня, напівправда, а також правдиві відомості, які в даному контексті підштовхнуть сприймає інформацію до помилкових висновків. Спотворення, що виникають в процесі передачі інформації, можуть відбуватися з кількох причин:

  • • передача тільки частини повідомлення;
  • • переказ почутого своїми словами;
  • • суб'єктивне сприйняття фактів.

Для своєчасного виявлення спотвореної інформації, а також для запобігання дезінформації необхідно розрізняти факти і думки, враховувати суб'єктивні характеристики джерела інформації та його передбачуване ставлення до видавати повідомлення. Слід чітко усвідомлювати, чи здатний джерело інформації за своїм становищем мати доступ до повідомляються фактам. Для страховки необхідно мати дублюючі джерела, використовувати дублюючі канали зв'язку і намагатися виключати зайві проміжні ланки передачі інформації. Крім того, слід пам'ятати, що особливо легко сприймається дезінформація, яка добре відповідає прийнятій раніше версії, тобто та, яку припускають або бажають отримати.

Побудова попередніх версій - етап аналітичної роботи, що пояснює місце основних отриманих фактів в ланцюзі подій. Тут необхідно виділити ключові моменти, відокремити їх від менш важливих, що не грають головній ролі. Отримані відомості повинні бути чітко класифіковані за ступенем достовірності джерела, самих відомостей і способу їх отримання. У першу чергу повинні розглядатися найсвіжіші та повні відомості. Матеріалами з позначками "джерело невстановленої надійності" і "достовірність не піддається визначенню" не рекомендується користуватися без крайньої необхідності.

Потім необхідно виявити всі можливі гіпотези, які можуть пояснювати ключові події, і, розташувавши їх за ступенем ймовірності, почергово перевіряти на стикування з усіма даними. Якщо виявлено значну розбіжність попередньої гіпотези з отриманими відомостями, причому останні мають досить високі оцінки достовірності, то слід переходити до наступної гіпотезі. Таким чином, вибираються найбільш ймовірні припущення.

На цьому етапі виникає одна з найсерйозніших проблем аналізу - протиріччя у відомостях. Для її подолання необхідно порівняти оцінки інформації та джерела, дати отримання спірних відомостей. Вирішальне ж значення мають знання, досвід та інтуїція співробітника, що виконує аналіз. Суперечності в інформації повинні бути усунені в процесі аналізу, для цього збирається додаткова інформація.

Визначення потреби в додатковій інформації означає вирішення питання про те, яка саме інформація необхідна. На цьому етапі виявляються прогалини в інформації. При цьому слід враховувати, що частина прогалин виявляється досить легко, так як є результатом недостатнього дослідження. Інші прогалини можуть і не бути виявлені, бо були упущені на етапі попередніх відомостей. Очевидно, що вони є болючими.

Коли прогалини в інформації виявлено, визначається їх важливість для подальшого аналізу. Якщо отримання додаткових відомостей визнано необхідним, всі описані вище етапи повторюються. Хоча це може відбуватися багато разів, на певному етапі доведеться обмежитися наявними даними і оформити отримані висновки у вигляді звіту. На підставі аналітичних звітів, довідок, оглядів різного роду керівники вищого рангу приймають важливі рішення, значна частина яких відноситься безпосередньо до управлінської діяльності. До методів збору конфіденційної комерційної інформації підприємців-конкурентів належить отримання відомостей з зіпсованих та викинутих документів, чернеток, копіювального паперу, зіпсованих дискет тощо З одного боку, вони можуть нести в собі найціннішу інформацію, і, з іншого боку, в цьому немає нічого протизаконного. Крім того, отримання важливої інформації легальним шляхом можливо і при науково-технічне співробітництво щодо необхідної тематики, аналізуючи застереження на спільних семінарах, конференціях тощо

Для того щоб оцінити і виміряти кількість інформації відповідно до вищевикладених аспектами, застосовуються різні підходи і методи. Серед них виділяються статистичний, семантичний, прагматичний і структурний. Історично найбільший розвиток отримав статистичний підхід.

Статистичний підхід вивчається в обширному розділі кібернетики, званому теорією інформації. Основоположником цього підходу вважається К. Шеннон, що опублікував в 1948 р свою математичну теорію зв'язку. Великий внесок у теорію інформації до нього внесли вчені Найквіст і Хартлі, які відповідно в 1924 і 1928 рр. надрукували роботи з теорії телеграфії і передачі інформації. Визнані у всьому світі дослідження з теорії інформації російських вчених А. Н. Колмогорова, А. Я. Хинчина, В. А. Котельникова, А. А. Харкевича та ін.

К. Шенноном було введено поняття кількості інформації, що знімається при отриманні інформації, як міри невизначеності стану системи. Кількісно виражена невизначеність стану отримала назву ентропії за аналогією з подібним поняттям в статистичній механіці. При отриманні інформації зменшується невизначеність, тобто ентропія, системи. Очевидно, що, чим більше інформації отримує спостерігач, тим більше знімається невизначеність, і ентропія системи зменшується. При ентропії, рівною нулю, про систему є повна інформація, і спостерігачеві вона представляється цілком впорядкованою. Таким чином, отримання інформації пов'язано зі зміною ступеня необізнаності одержувача про стан цієї системи.

До отримання інформації її одержувач міг мати деякі попередні (апріорні) відомості про систему X. Залишилася необізнаність та є для нього мірою невизначеності стану системи (ентропією). Позначимо апріорну ентропію системи X через Н (Х). Після отримання деякого повідомлення спостерігач придбав додаткову інформацію 1 (Х), зменшити його початкову необізнаність так, що апостериорная (після отримання інформації) невизначеність стану системи стала Н '(Х).

Тоді кількість інформації може бути визначене як

(1.1)

Іншими словами, кількість інформації вимірюється зменшенням (зміною) невизначеності стану системи.

Якщо апостериорная ентропія системи звернеться в нуль, то спочатку неповне знання заміниться повним і кількість інформації, отриманої в цьому випадку спостерігачем, буде

(1.2)

тобто ентропія системи може розглядатися як міра відсутньої інформації.

Якщо система X володіє дискретними станами (тобто переходить зі стану в стан стрибком), їх кількість дорівнює N, а ймовірність знаходження системи в кожному зі станів - Р 1, Р 2, Р 3, ..., Р N, то згідно теоремі Шеннона ентропія системи

(1.3)

Тут коефіцієнт До 0 і підстава логарифма а визначають систему одиниць вимірювання кількості інформації. Логарифмічна міра інформації була запропонована Хартлі для подання технічних параметрів систем зв'язку як більш зручна і ближча до сприйняття людиною, звиклим до лінійним порівнянь із прийнятими еталонами. Наприклад, кожен відчуває, що дві однотипні дискети повинні володіти вдвічі більшою ємністю, ніж одна, а два ідентичних каналу зв'язку - мати подвоєну пропускну здатність. Знак мінус у формулі (1.3) поставлений для того, щоб значення ентропії було позитивним.

Ентропія H володіє рядом цікавих властивостей. Ось деякі з них.

Ентропія H дорівнює нулю тільки тоді, коли всі ймовірності Р, крім однієї, дорівнюють нулю, а ця єдина ймовірність дорівнює одиниці. Таким чином, H = 0 лише у випадку повної визначеності стану системи.

При заданому числі станів системи N величина H максимальна і дорівнює До 0 log0 TV, коли всі Р рівні.

Визначимо одиниці виміру кількості інформації за допомогою виразу для ентропії системи з рівноімовірними станами.

Нехай система має два рівноймовірно стану, тобто N = 2. Будемо вважати, що зняття невизначеності про стан такої системи дає одну одиницю інформації, так як при повному знятті невизначеності ентропія кількісно дорівнює інформації H = 1. Тоді

(1.4)

Очевидно, що права частина рівності буде тотожно дорівнює одиниці інформації, якщо прийняти К 0 = 1 і підстава логарифма а = 2. У загальному випадку при N рівноймовірно станів кількість інформації

(1.5)

Вираз (1.5) отримало назву формули Хартлі і показує, що кількість інформації, необхідне для зняття невизначеності про систему з рівноімовірними станами, залежить лише від кількості цих станів.

Інформація про станах системи передається одержувачу у вигляді повідомлень, які можуть бути представлені в різній синтаксичній формі, наприклад у вигляді кодових комбінацій, що використовують т різних символів і п розрядів, в кожному з яких може перебувати будь-який з символів. Якщо код не надлишковий, то кожна кодова комбінація відображає одне з станів системи. Кількість кодових комбінацій буде N = т n.

Підставивши цей вираз у формулу (1.5), отримаємо

(1.6)

Якщо код двійковий, тобто використовуються лише два символи (0 або 1), то т = 2 = п. У цьому випадку кількість інформації в повідомленні складе п двійкових одиниць, званих бітами (binary digit (bit) - двійкова цифра).

При використанні в якості підстави логарифма числа десять одиниць виміру інформації можуть бути десятковими. Так як log 2 N = log10N / log102 = 3,321og10N, то десяткова одиниця становить приблизно 3,33 біта.

Іноді зручно застосовувати натуральне підставу логарифма - е. У цьому випадку отримувані одиниці інформації називаються натуральними, або нотами. Перехід від підстави а до основи А вимагає лише множення на logA a.

Введена кількісна статистична міра інформації широко використовується в теорії інформації для оцінки власної, взаємної, умовної та інших видів інформації. Розглянемо як приклад власну інформацію, під якою будемо розуміти інформацію, що міститься в даному конкретному повідомленні. А конкретне повідомлення, як вказувалося, дає одержувачу інформацію про можливість існування конкретного стану системи. Тоді кількість власної інформації, що міститься в повідомленні Xi, визначається як

(1.7)

Власна інформація має такі властивості: вона неотрицательна; чим менше ймовірність виникнення повідомлення, тим більше інформації воно містить. Саме тому несподівані повідомлення так впливають на психіку людини, що міститься в них велика кількість інформації створює інформаційний психологічний удар, іноді приводить до трагічних наслідків; якщо повідомлення має ймовірність виникнення, рівну одиниці, то інформація, що міститься в ньому, дорівнює нулю, оскільки заздалегідь відомо, що може прийти тільки це повідомлення, а значить, нічого нового споживач інформації не отримує; власна інформація має властивість адитивності, тобто кількість власної інформації декількох незалежних повідомлень одно їх сумі.

Слід ще раз наголосити, що статистичний підхід до кількісної оцінки інформації був розглянутий для дискретних систем, випадковим чином переходять зі стану в стан, і, отже, повідомлення про ці станах також виникає випадковим чином.

Крім того, статистичний метод визначення кількості інформації практично не враховує семантичного та прагматичного аспектів інформації.

Семантичний підхід є найбільш важко формалізованих і досі остаточно не визначився.

Найбільше визнання для вимірювання смислового змісту інформації отримала тезаурусні захід, запропонований Ю. І. Шнейдером. Ідеї тезаурусного методу були сформульовані ще основоположником кібернетики Н. Вінером. Для розуміння і використання інформації її одержувач повинен володіти певним запасом знань.

Якщо індивідуальний тезаурус споживача відображає його знання про даний предмет, то кількість смислової інформації, що міститься в деякому повідомленні, можна оцінити ступенем зміни цього тезауруса, що стався під впливом даного повідомлення. Очевидно, що кількість інформації нелінійно залежить від стану індивідуального тезауруса користувача, і хоча смисловий зміст повідомлення постійно, користувачі, які мають відмінні тезауруси, отримуватимуть неоднакова кількість інформації.

Справді, якщо індивідуальний тезаурус одержувача інформації близький до нуля, то в цьому випадку і кількість сприйнятої інформації дорівнює нулю.

Іншими словами, одержувач не розуміє прийнятого повідомлення, і, як наслідок, для нього кількість сприйнятої інформації дорівнює нулю. Така ситуація еквівалентна прослуховуванню повідомлення на невідомому іноземною мовою. Безсумнівно, повідомлення не позбавлене сенсу, однак воно незрозуміло, а значить, не має інформативності.

Кількість семантичної інформації в повідомленні також дорівнюватиме нулю, якщо користувач інформації абсолютно все знає про предмет, тобто його тезаурус, і повідомлення не дає йому нічого нового.

Інтуїтивно відчувається, що між цими полярними значеннями тезауруса користувача існує деякий оптимальне значення, при якому кількість інформації, що витягають із повідомлення, стає для одержувача максимальним.

Тезаурусний метод підтверджує тезу про те, що інформація має властивість відносності і має, таким чином, відносну, суб'єктивну цінність. Для того щоб об'єктивно оцінювати наукову інформацію, з'явилося поняття загальнолюдського тезауруса, ступінь зміни якого і визначає значущість одержуваних людством нових знань.

Прагматичний підхід визначає кількість інформації як міру, що сприяє досягненню поставленої мети. Однією з перших робіт, що реалізують цей підхід, була стаття А. А. Харкевича. У ній він пропонував прийняти за міру цінності інформації кількість інформації, необхідне для досягнення поставленої мети. Цей підхід базується на статистичній теорії Шеннона і розглядає кількість інформації як приріст ймовірності досягнення мети. Так, якщо взяти ймовірність досягнення мети до отримання інформації рівний Р 0, а після її отримання - Р 1, то прагматичне кількість інформації I п визначається як

(1.8)

Якщо основа логарифма зробити рівним двом, то I п буде вимірюватися в бітах, як і при статистичному підході.

При оцінці кількості інформації в семантичному і прагматичному аспектах необхідно враховувати і тимчасову залежність інформації. Справа в тому, що інформація, особливо в системах управління економічними об'єктами, має властивість старіти, тобто її цінність з часом падає, і важливо використовувати її в момент найбільшої цінності.

Структурний підхід пов'язаний з проблемами зберігання, реорганізації та вилучення інформації і в міру збільшення обсягів накопичуваної в комп'ютерах інформації набуває все більшого значення.

При структурному підході абстрагуються від суб'єктивності, відносної цінності інформації і розглядають логічні і фізичні структури організації інформації. З винаходом комп'ютерів з'явилася можливість зберігати на машинних носіях величезні обсяги інформації. Але для її ефективного використання необхідно визначити такі структури організації інформації, щоб існувала можливість швидкого пошуку, вилучення, записи, модифікації інформаційної бази.

При машинному зберіганні структурною одиницею інформації є один байт, що містить восьмій біт (двійкових одиниць інформації). Менш визначеною, але також, що переводиться до байти є неподільна одиниця економічної інформації - реквізит.

Реквізити об'єднуються в показники, показники - в записі, записи - в масиви, з масивів створюються комплекси масивів, а з комплексів - інформаційні бази. Структурна теорія дозволяє на логічному рівні побудувати оптимальну структуру інформаційної бази, яка потім за допомогою певних засобів реалізується на фізичному рівні - рівні технічних пристроїв зберігання інформації. Від обраної структури зберігання залежить такий важливий параметр, як час доступу до даних, тобто структура впливає на час запису і зчитування інформації, а значить, і на час створення та реорганізації інформаційної бази.

Інформаційна база спільно з системою управління базою даних (СКБД) формує автоматизований банк даних.

Значення структурної теорії інформації зростає при переході від банків даних до банків знань, в яких інформація піддається ще більш високого ступеня структуризації.

 
<<   ЗМІСТ   >>