미리보기
개정증보1판 정보관리기술사 Vol. 9 인공지능
ISBN 978-89-315-8995-5
저자 권영식, 권대호
발행일 2026-04-15
판형 4×6배판(190×260)
분량 532쪽
편집 1도
개정판정보 개정증보 1판1쇄(2026년 4월 15일)
정가 50,000원↓
판매가 45,000
(10% off)
적립금 2,500원(5%)
  소득공제
도서소개

책 소개

1. 이 책은 학원 수강을 통해 습득한 내용과 멘토링을 진행하면서 스스로 학습한 내용을 바탕으로 답안 형태로 작성하였고, IT분야 기술사인 정보관리기술사와 컴퓨터시스템응용기술사 자격을 취득하기 위해 학습하고 있거나 학습하고자 하는 분들을 위해 만들었습니다.

 

2. 본 교재는 발전 동향, 배경 그리고 유사 기술과의 비교, 다양한 도식화 등 25년간의 실무 개발자 경험을 토대로 작성한 내용으로 풍부한 경험적인 요소가 내재되어 있는 장점이 있습니다.

 

 

책의 구성

Part 1. 인공지능(人工知能, Artificial Intelligence)의 개요

인공지능의 역사, 인공지능의 분류, 특이점, 인공지능 원칙, 전문가 시스템, 튜링테스트(Turing Test), Agent, 인공지능 윤리, AI 학습데이터 품질 등에 대한 내용으로 작성했습니다. [관련 토픽 - 17]

 

Part 2. 인공지능 알고리즘

유전자 알고리즘, 그리디 알고리즘, 상관분석, 회귀분석, 군집분석, 자카드계수, 해밍거리, 연관규칙, 지지도/신뢰도/향상도, 앙상블학습, BaggingBoosting, Random Forest, Decision Tree, K-NN, 시계열 분석, SVM, K-Means, 평균제곱오차, 오차검증, 텐서(Tensor), 선택 편향(Selection Bios), 공분산, 편상관분석, 최소 제곱법 등에 대해 학습할 수 있도록 하였습니다. [관련 토픽 - 60]

 

Part 3. 심층 신경망 상세

기계학습, 지도학습, 비지도(비감독)학습, 강화학습, Deep Learning, Perceptron, 활성화 함수, 하이퍼파라미터, 역전파법, 기울기 소실 문제, 경사하강법, 과적합과 부적합, Dropout, ANN, DNN, CNN, RNN, LSTM, GRU, RBM, DBN, DQN, GAN, DL4J, 혼동행렬, 기계학습의 평가 방법, 정확도, 재현율, 정밀도, F1 Score 등에 대해 학습할 수 있도록 하였습니다. [관련 토픽 - 47]

 

Part 4. 인공지능 활용

음성인식기술, 챗봇(ChatBot), 가상개인비서, 패턴인식, 머신러닝 파이프라인(Machine Learning Pipeline), 자연어 처리, 엑소브레인(Exobrain)Deepview, SNA, 텐서플로, 파이썬의 특징 및 자료형, 패션 의류용 이미지를 분류하는 다층 신경망 예시, 피지컬 AI 등을 수록했습니다. [관련 토픽 - 31]


Part 5. AI 주요 기술 등

GPUCPU, 교차검증기법, 머신러닝 모델의 평가 방법, 보안 취약점, Data Annotation, AIaaS(AI as a Service), 인공지능 V 모델, 인공지능 점검할 항목, 인공지능 데이터 품질 요구사항, XAI, 인공지능 데이터 평가를 위한 고려사항, LLM, Graph RAG, Vector Database, Prompt Engineering 등에 대해 학습할 수 있습니다. [관련 토픽 36]

목차

PART 1. 인공지능(人工知能, Artificial Intelligence)의 개요

1. 인공지능(Artificial Intelligence)의 역사

2. 인공지능

3. 인공지능(AI)의 특이점(Singularity)

4. 아실로마(ASILOMA) AI(인공지능) 원칙

5. 규칙기반모델

6. 추천엔진(Recommendation Engine)

7. 전문가시스템(Expert System)

8. 정규표현식과 유한 오토마타

9. 유한 오토마타(Finite Automata)

10. 튜링테스트(Turing Test)

11. 에이전트(Agent) - 1교시형 답안

12. 에이전트(Agent) - 2교시형 답안

13. 킬 스위치(Kill Switch)

14. 트롤리 딜레마(Trolley Dilemma)

15. 인공지능(AI) 윤리의 개념, 주요 사례, 고려사항 및 추진방향

16. 이용자 중심의 지능정보사회를 위한 원칙

17. 약 인공지능(Weak AI), 강 인공지능(Strong AI), 초 인공지능(Super AI), AI 학습데이터 품질

 

PART 2. 인공지능 알고리즘(Algorithm)

18. 유전자 알고리즘(Genetic Algorithm)

19. 그리디 알고리즘(Greedy Algorithm)

20. 상관분석(Correlation Analysis)

21. Data분석에서 상관관계(Correlation)와 인과관계(Causation)의 비교설명

22. 회귀분석(Regression Analysis)

23. 로지스틱 회귀분석(Logistic Regression Analysis)

24. Cluster(클러스터) 분석 - 1교시형 답안

25. 군집분석(Cluster Analysis) - 2교시형 답안

26. 계층적 군집분석(Hierarchical Clustering)

27. 자카드(Jaccard)계수

28. 해밍거리(Hamming Distance)

29. 해밍코드(Hamming Code)의 오류검색과 수정방법, 그리고 활용사례에 대해서 설명하시오. (Data4Bit(1101)로 가정하고 짝수 패리티(Even Parity)를 사용한다)

30. 유클리디안 거리(Euclidean Distance)

31.유클리디안 거리(Euclidean Distance) 계산하시오. (A,B) (A,C) 간의 거리

32. 마할라노비스 거리(Mahalanobis Distance) 계산하시오. (A,B) (A,C) 간의 거리

33. 코사인 유사도(Cosine Similarity)

34. 협업 필터링(Collaborative Filtering)

35. 추천시스템(Recommender System)

36. Apriori(연관규칙) 알고리즘

37. 지지도(Support), 신뢰도(Confidence), 향상도(Lift)

38. 사례1(TV 구입 시 DVD 구입), 사례2(우유 구입 시 주스 구입)에 대해 연관규칙(지지도, 신뢰도, 향상도)을 제시하시오.

39. 앙상블학습(Ensemble Learning)

40. 머신러닝(Machine Learning)에 활용, 앙상블(Ensemble) 기법

41. BaggingBoosting 비교

42. 랜덤 포레스트(Random Forest)

43. 의사결정트리(Decision Tree)

44. K-NN(K-Nearest Neighbor)

45. 시계열 분석

46. 시계열 분석(ARIMA)

47. SVM(Support Vector Machine) - 1교시형 답안

48. SVM(Support Vector Machine) - 2교시형 답안

49. 베이즈(Bayes)정리

50. 크기와 모양이 같은 공이 상자 A에는 검은 공 2개와 흰 공 2, 상자 B에는 검은 공 1개와 흰 공 2개가 들어 있다. 두 상자 A, B 중 임의로 선택한 하나의 상자에서 공을 1개 꺼냈더니 검은 공이 나왔을 때, 그 상자에 남은 공이 모두 흰공일 확률은? (베이즈(Bayes)정리를 활용하시오)

51. K-Means

52. DBSCAN(Density Based Spatial Clustering with Application Notes)

53. 차원축소(Dimensionality Reduction)

54. 오토인코더(Auto Encoder)

55. 군집분석 기법인 SOM(Self Organization Map)에 대하여 설명하시오.

. SOM 정의 및 특징

. SOM 구성요소

. SOM과 신경망 분석기법 차이

56. 특징추출(Feature Extraction)

57. 주성분 분석, PCA(Principal Component Analysis)

58. 독립성분분석, ICA(Independent Component Analysis)

59. 마르코프 결정 프로세스(Markov Decision Process, MDP)

60. 은닉 마르코프 모델(HMM-Hidden Markov Model)

61. 몬테카를로 트리 탐색(MCTS)

62. 몬테카를로 방법(Monte Carlo Method)

63. Q-Learning

64. Tokenization(토근화), N-gram

65. Word2Vec

66. 워드 임베딩(Word Embedding)

67. Word2Vec학습모델, CBOW(Continuous Bag Of Words), Skip-gram

68. 인공신경망의 오류 역전파(Backpropagation) 알고리즘

69. 평균제곱오차(MSE, Mean Square Error)

70. 오차검증(Error Validation)

71. 텐서(Tensor)

72. 선택 편향(Selection Bios)

73. 공분산(Covariance)

74. 편상관분석(Partial Correlation Analysis)

75. 최소 제곱법(Ordinary Least Squares)

76. 부트스트랩(Bootstrap)

77. 모수검증과 비모수검증

 

PART 3. 심층 신경망 상세

78. 일반적인 프로그램 방식과Machine Learning(기계학습) 프로그래밍 방식

79. 귀납적(Inductive) / 연역적(Deductive) 사고

80. 귀납적사고(Inductive Reasoning)와 기계학습(Machine Learning)

81. 기계학습(Machine Learning) 모델링과 모델옵스(ModelOps)에 대해 설명하시오.

82. AI(Artificial Intelligence), ML(Machine Learning), DL(Deep Learning) 관계와 차이점

83. ML(Machine Learning)DL(Deep Learning) 차이

84. 기계학습(Machine Learning)

85. 지도학습(Supervised Learning)

86. 비지도(비감독)(Unsupervised Learning)학습

87. 강화학습(Reinforcement Learning)

88. 딥러닝(Deep Learning)

89. MCP(McCulloch-Pitts)뉴런(Neuron)Perceptron 이론

90. 뉴로모픽 칩(Neuromorphic Chip)

91. 헵 규칙(Hebb Rule)

92. 퍼셉트론(Perceptron)

93. 아달라인(Adaline- Adaptive Linear Neutron)

94. 활성화 함수(Activation Function) - 1

95. 활성화 함수(Activation Function) - 2

96. 신경망 학습- FFNN(Feed Forward Neural Network)

97. 딥러닝(Deep Learning)의 파라미터(Parameter)와 하이퍼파라미터 (Hyperparameter)를 비교하고 하이퍼파라미터의 튜닝방법을 설명하시오.

98. 역전파법(Back-Propagation)

99. 기울기 소실 문제(Vanishing Gradient Problem)

100. 경사하강법(Gradient Descent)

101. 과적합(Overfitting)과 부적합(Underfitting), 적합(Bestfitting)

102. 과적합(Overfitting)과 부적합(Underfitting) 해결방안

103. 과적합(Overfitting)의 발생이유와 해결방안

104. OverfittingUnderfitting의 문제점과 대응방안

105. Dropout

106. ANN(Artificial Neural Network)

107. DNN(Deep Neural Network)

108. CNN(Convolution Neural Network)

109. R-CNN(Region-based CNN)

110. YOLO(you Only Look Once)

111. RNN(Recurrent Neural Network)

112. LSTM(Long Short-Term Memory)

113. GRU(Gated Recurrent Unit)

114. RBM(Restricted Boltzmann Machine)

115. DBN(Deep Belief Network)

116. DQN(Deep Q-Network)

117. GAN(Generative Adversarial Networks)

118. 딥페이크(Deepfake)

119. DL4J(Deep Learning 4J)

120. 신경망 처리장치(NPU : Neural Processing Unit)

121. 혼동행렬(Confusion Matrix)

122. Machine Learning(기계학습)의 평가방법-Accuracy(정확도), Recall(재현율), Precision(정밀도)

123. F1 Score

124. 다음 예시에서 정확도(Accuracy), 정밀도(Precision), 재현율(Recall), F1 Score 를 각각 구하시오. (음치와 정상의 예측 비율)

 

PART 4. 인공지능 활용

125. 음성인식기술, ASR(Automatic Speech Recognition), NLU(Natural Language Understanding), TTS(Text to Speech)

126. 음성인식(Voice Recognition)

127. 챗봇(ChatBot)

128. 가상개인비서(Virtual Personal Assistant)

129. 패턴인식(Pattern Recognition)

130. 머신러닝 파이프라인(Machine Learning Pipeline)

131. 자연어 처리(Natural Language Processing) - 1

132. 자연어 처리(Natural Language Processing) - 2

133. 엑소브레인(Exobrain)

134. 엑소브레인(Exobrain)Deepview 기술요소

135. 딥뷰(Deepview)

136. SNA(Social Network Analysis)

137. 텐서플로(Tensorflow)

138. 파이썬(Python)의 특징 및 자료형(Data Type)

139. 패션 의류용 이미지를 분류하는 다층 신경망을 만들려고 한다. 의류용 이미지는 바지, 치마, 셔츠 등 10가지 유형의 흑백 이미지(32*32pixels)로 구성되어 있고, 학습에 투입할 이미지 데이터는 검증 및 테스트용 데이터를 제외하고 총 48,000장이다. 입력층, 은닉층, 출력층의 완전연결(fully connected) 3계층으로 구성되어 있고 은닉층의 뉴런 개수는 100개일 때,

다음에 대하여 설명하시오.

. 신경망 구성도

. 입력층의 입력 개수, 출력층의 뉴런 개수, 학습할 가중치와 절편의 총 개수

. -핫인코딩(One-Hot Encoding)과 소프트맥스(Softmax)함수

140. STT(Speed To Text)

141. IVR(Interactive Voice Response)

142. 생성형 AI(Generative AI) - 1

143. 생성형 AI(Generative AI) - 2

144. 생성형 AI의 보안위협과 대응방안

145. AI 에이전트(Agent)

146. MCP(Model Context Protocol)

147. 피지컬(Physical) AI

148. 버티컬(Vertical) AI

149. On-Device AI - 1

150. 온 디바이스(On-Device) AI - 2

151. 소버린(Soveregin) AI

152. 멀티모달(Multimodal) AI

153. AI TRiSM(AI Trust, Risk and Security Management)

154. AI 거버넌스 플랫폼(AI Governance Platforms)

155. 인공지능 전환(AX, AI Transformation)

 

PART 5. AI 주요 기술 등

156. GPU(Graphic Processing Unit)CPU(Central Processing Unit)의 차이점

157. 머신러닝 모델은 학습과 함께 검증 및 평가 과정이 필요하다.

. 교차검증(k-fold Cross Validation)기법에 대해 설명하시오.

. 머신러닝 모델의 평가방법에 대하여 설명하시오.

158. 머신러닝 보안 취약점에 대해 설명하시오.

. 머신러닝 학습과정에서의 적대적 공격 4가지

. 각각 적대적 공격의 방어 기법

159. 데이터 어노테이션(Data Annotation)

160. 이미지 데이터 어노테이션(Image Data Annotation) 유형과 기법

161. AIaaS(AI as a Service)와 도입 시 고려사항

162. 전이학습(Transfer Learning) - 1

163. 전이학습(Transfer Learning) - 2

164. Pre-Crime 시스템(System)

165. 머신러닝(Machine learning)의 학습방법은 크게 3가지[지도학습(Supervised Learning), 비지도학습(Unsupervised Learning), 강화학습(Reinforcement Learning)]로 분류한다. 인공지능 소프트웨어 개발 프로세스를 V 모델 기준으로 도식화하고 관련기술의 최신동향 및 안전취약점을 설명하시오.

166. 인공지능 개발과정에서 중점적으로 점검할 항목

167. 인공지능 데이터 품질 요구사항

168. 디지털 카르텔(Digital Cartel)

169. XAI(eXplainable AI, 설명가능한 인공지능)

170. 인공지능(AI) 데이터 평가를 위한 고려사항

171. 파인튜닝(Fine-Tuning) - 1교시형 답안

172. 파인튜닝(Fine-Tuning) - 2교시형 답안

173. 초거대 AI Data 품질관리 지표

174. 머신러닝(Machine Learning) 성능지표

175. 인공지능(AI) 신뢰성

176. 대규모 AI 서비스를 위한 데이터 센터 구축 기술에 대하여 설명하시오.

. 저 지연 기술과 스케일링 확보기술

. DCI(Data Center Interconnect) 기술

177. 회피공격(Evasion Attack)

178. 인공지능에서 적대적 공격(Adversarial Attack)과 대응방안

179. AI 리터러시(AI Literacy) - 1교시형 답안

180. AI 리터러시(AI Literacy) - 2교시형 답안

181. 디지털 리터러시(Digital Literary) - 1

182. 디지털 리터러시(Digital Literary) - 2

183. 데이터 리터러시(Data Literary)

184. ChatGPT(Chat Generative Pre-trained Transformer)

185. 랭체인(LangChain)

186. 대규모 언어 모델(LLM, Large Language Model)

187. RAG(Retrieval Augmented Generation)

188. 검색증강생성(RAG, Retrieval Augmented Generation)

189. 그래프(Graph) RAG

190. 벡터 데이터베이스(Vector Database)

191. 프롬프트 엔지니어링(Prompt Engineering)

저자

저자 권영식

성균관대학교 정보통신대학원 정보보호학과 졸업(공학석사)

삼성종합기술원 연구원

삼성전자 선임/책임/수석 연구원

컴퓨터시스템응용기술사

정보시스템수석감리원

정보통신특급기술자

과학기술정보통신부 IT 멘토

데이터관리인증심사원(DQC-M)

(() 기술사 교류회 위원

http://cafe.naver.com/96starpe 운영자

 

저자 권대호

연세대학교 전기전자공학부

중앙대학교 소프트웨어학부 컴퓨터공학사

부록/예제소스
정오표
    최근 본 상품 1