본문 바로가기

분류 전체보기

(13)
🦝람다 ver2- 컬렉션 함수형 API www.notion.so/ver2-API-4be39bf2bd8f4a5eb2e3a245ea09bc50 람다 ver2- 컬렉션 함수형 API 참고자료 : KOTLIN IN ACTION www.notion.so
🦝람다 ver1- 람다식, 람다 문법, 멤버 참조 www.notion.so/ver1-551491f2a24247fda3af0afdf1510e9d 람다 ver1- 람다식, 람다 문법, 멤버 참조 참고자료 : KOTLIN IN ACTION www.notion.so
📎 코틀린 애노테이션 www.notion.so/3ee4ce5565c340c6b4f24d7bc66a763b 애노테이션 참고자료 : KOTLIN IN ACTION www.notion.so
❓널 안정성,데이터 클래스,한정 클래스 +컬렉션 개념 www.notion.so/e3b87e21d4c94492b3e2a987e9b191a0 널 안정성,데이터 클래스,한정 클래스 +컬렉션 개념 참고자료 : KOTLIN IN ACTION www.notion.so
🚥코틀린의 흐름제어&예외처리 www.notion.so/3a1eca95641e441aba34b3434f5a434d 코틀린의 흐름제어&예외처리 2.5 흐름 제어 ⭐⭐⭐⭐ www.notion.so 2.5 흐름 제어 ⭐⭐⭐⭐조건문if-else 문 Java Kotlin 값을 만들어 내는 식!if(a>b) a else b // =java의 3항 연산자 a>b ? a:bwhen 문코틀린에서 when은 자바의 switch보다 강력하다.Java 분기 조건에 상수(enum 상수나 숫자literal)만 사용 가능Kotlin 분기 조건으로 객체 허용when으로 enum 클래스 다루기fun getMnemonic(color: Color){ when(color){ Color.RED->"Richard" Color.ORANGE->"Of" Color.YELLOW ..
🦕코틀린의 소개 feat.코틀린 철학 www.notion.so/feat-1acb0630394a426cbcf1d68b2c6a9204 코틀린의 소개 feat.코틀린 철학 📙출처 : KOTLIN ACTION www.notion.so 티스토리에 노션을 깔끔하게 가져오는 방법을 아직 찾지 못하여,,, 미루고 미루던,,,, 링크로 대체한다.... 빠른 시일 내에 티스토리에도 깔끔하게 써보자 🔥 노션에서 티스토리로 옮겨주는 프로그램을 만드신 분이 있다,,, 잘쓰겠습니다 Notion2Tistory 토글 버튼 눌러서 내용 확인해주세요! 📙출처 : KOTLIN ACTION 💡 과연 다 할 수 있을것인가!! 1회차(1주) 1장 코틀린이란? 1.1 코틀린의 소개 KOTLIN 코틀린은 JAVA 플랫폼에서 돌아가는 새로운 프로그래밍 언어 Feat. 코틀린의 철학 실..
[Deep Learning] Multi- Classes Classifier Softmax 여러개의 선택지가 주어진다면? 여러 클래스가 C 중 하나를 인식할 떄 예측에 사용할 수 있습니다 이 알고리즘은 Vector Z[L]를 통해서 합이 1이 되는 4개의 확률값을 내놓습니다. Z[L]에서 a[L]으로 되는 과정을 요약하자면, e를 취해서 임시변수 t를 얻어서 정규화한 이 과정을 "Softmax activation function"으로 요약할 수 있다. 그림 왜에 설명을 못하겠어서,,,, 필기파일을 올리도록 하겠습니다.... 죄송합니다......
[Deep Learning] 입력값의 정규화 : Improving Deep NN 이 포스팅은 edwith의 딥러닝 2단계 : 심층 신경망 성능 향상시키기를 듣고 공부 목적으로 작성되었습니다. How to make Improving Deep Nerual Networks training 어떻게 해야 심층 신경망의 훈련을 향상 시킬 수 있을까?? Keyword : normalize input features ( 입력값의 정규화 ) 신경망의 훈련을 빠르게 하는 방법 중 하나 => 입력을 정규화 입력의 정규화의 2단계 ① Subtract mean 평균을 빼는 것 -> μ=​m​​1​​∑​i=1​m​​x​(i)​​ x:=x−μ -> 모든 훈련 샘플에 대해 적용 -> 0의 평균을 갖게 될때까지 훈련 세트를 이동하는 것 ② Normalize Variance 분산을 정규화 -> σ​2​​=​m​​1..