다음의 날씨 + 지역

키워드를 이용해서 나오는 정보를 가져오고

그걸 프론트에서 svg 애니메이션 아이콘과 함께 출력하는 웹 페이지를 만들어 봄

 

배경은 밤에는 짙은 하늘색

낮에는 점진적으로 변하는 파란색이다.

 

 

python을 flask로 작동하는데

링크만 주고 빼오면 되는거라, 작동안하면 그 때 또 링크 주고 해달라고 하면 되겠지 머 ㅋㅋ

 

weather.zip
0.01MB

'개소리 왈왈 > 인공지능' 카테고리의 다른 글

클로드로 날로먹기 모드  (0) 2024.09.12
클로드 괜찮네?  (0) 2024.08.14
GPT-4o?  (0) 2024.05.27
GPT 4. 미국 변호사 시험 상위 10%  (0) 2023.03.16
대 AI시대, 프로그래머란...?  (2) 2023.02.08
Posted by 구차니

심심해서 장난감 만드는 용도로

간단하게 날씨를 그려주는 웹을 코드는 손 하나도 안대고

짜보는 중

 

그런데.. 글자수 제한이 있어서 잘리네? 이걸 어떻게 우회해야하지? ㅠㅠ

Posted by 구차니

chatGPT는 먼가 성능이 좋지도 신뢰도 할 수 없는 적토마 라는 느낌인데

claude는 제법 똑똑하고 미음이 가는 경주마 라는 느낌?

 

4~5번의 대화 끝에 아래의 소스를 생성해준다. 이정도면 chatGPT보다 빠르고 나름 믿고 쓸만한 듯?

네, 요청하신 대로 DHT22에서 습도를, BMP280에서 온도와 기압을 측정하고, 이를 원격 라즈베리 파이 데이터베이스 서버로 전송하는 전체 시스템에 대한 개별 소스코드를 작성해 드리겠습니다.

1. 센서 데이터 수집 (클라이언트 라즈베리 파이):

```python
# sensor_client.py

import Adafruit_DHT
import Adafruit_BMP.BMP280 as BMP280
import time
import requests
import uuid

# 센서 설정
DHT_SENSOR = Adafruit_DHT.DHT22
DHT_PIN = 4  # GPIO 핀 번호
bmp = BMP280.BMP280()

# 클라이언트 ID 설정
CLIENT_ID = str(uuid.uuid4())

# 서버 설정
SERVER_URL = "http://your_server_ip:5000/api/weather"

def get_sensor_data():
    humidity, _ = Adafruit_DHT.read_retry(DHT_SENSOR, DHT_PIN)
    temperature = bmp.read_temperature()
    pressure = bmp.read_pressure() / 100  # hPa로 변환

    return {
        "client_id": CLIENT_ID,
        "temperature": round(temperature, 2),
        "humidity": round(humidity, 2) if humidity is not None else None,
        "pressure": round(pressure, 2)
    }

def send_data(data):
    try:
        response = requests.post(SERVER_URL, json=data)
        print(f"Data sent. Status code: {response.status_code}")
    except requests.RequestException as e:
        print(f"Error sending data: {e}")

if __name__ == "__main__":
    while True:
        data = get_sensor_data()
        send_data(data)
        time.sleep(300)  # 5분마다 데이터 전송
```

2. 서버 API (서버 라즈베리 파이):

```python
# server_api.py

from flask import Flask, request, jsonify
import psycopg2
from psycopg2.extras import RealDictCursor

app = Flask(__name__)

# 데이터베이스 연결 설정
DB_PARAMS = {
    "host": "localhost",
    "database": "weather_db",
    "user": "your_username",
    "password": "your_password"
}

def get_db_connection():
    return psycopg2.connect(**DB_PARAMS)

@app.route('/api/weather', methods=['POST'])
def add_weather_data():
    data = request.json
    conn = get_db_connection()
    cur = conn.cursor()
    try:
        cur.execute(
            "INSERT INTO weather_data (client_id, temperature, humidity, pressure) VALUES (%s, %s, %s, %s)",
            (data['client_id'], data['temperature'], data['humidity'], data['pressure'])
        )
        conn.commit()
        return jsonify({"message": "Data added successfully"}), 201
    except Exception as e:
        conn.rollback()
        return jsonify({"error": str(e)}), 400
    finally:
        cur.close()
        conn.close()

@app.route('/api/weather', methods=['GET'])
def get_weather_data():
    conn = get_db_connection()
    cur = conn.cursor(cursor_factory=RealDictCursor)
    try:
        cur.execute("SELECT * FROM weather_data ORDER BY timestamp DESC LIMIT 100")
        data = cur.fetchall()
        return jsonify(data)
    finally:
        cur.close()
        conn.close()

if __name__ == '__main__':
    app.run(host='0.0.0.0', port=5000)
```

3. 데이터베이스 설정 (서버 라즈베리 파이):

PostgreSQL을 사용한다고 가정하고, 다음과 같이 데이터베이스와 테이블을 설정합니다:

```sql
CREATE DATABASE weather_db;

\c weather_db

CREATE TABLE weather_data (
    id SERIAL PRIMARY KEY,
    client_id VARCHAR(50),
    temperature FLOAT,
    humidity FLOAT,
    pressure FLOAT,
    timestamp TIMESTAMP DEFAULT CURRENT_TIMESTAMP
);
```

4. 필요한 라이브러리 설치:

클라이언트 라즈베리 파이:
```
pip install Adafruit_DHT Adafruit_BMP280 requests
```

서버 라즈베리 파이:
```
pip install flask psycopg2-binary
```

5. 시스템 실행:

클라이언트 라즈베리 파이:
```
python sensor_client.py
```

서버 라즈베리 파이:
```
python server_api.py
```

이 시스템에서:

- 클라이언트 라즈베리 파이는 센서에서 데이터를 수집하고 5분마다 서버로 전송합니다.
- 서버 라즈베리 파이는 API를 통해 데이터를 받아 데이터베이스에 저장합니다.
- GET 요청을 통해 최근 100개의 데이터를 조회할 수 있습니다.

실제 구현 시 고려할 점:
1. 오류 처리와 로깅을 더 강화하세요.
2. HTTPS를 사용하여 데이터 전송을 암호화하세요.
3. 클라이언트 인증을 추가하여 보안을 강화하세요.
4. 데이터베이스 연결 풀링을 사용하여 성능을 개선하세요.
5. 환경 변수를 사용하여 설정을 관리하세요.

이 코드는 기본적인 구조를 제공합니다. 실제 환경에 맞게 수정하여 사용하시기 바랍니다.

 

Posted by 구차니

오늘 심심해서 수다나 떨려고(!) 접속했는데

GPT-4o 제한적인 접근이 가능하다고 해서 지금 사용해 보기 눌렀는데

 

 

정작 차이는 없는것 같은데.. 모르겠다

 

결제 쪽에서도 GPT-3.5가 기본이고 GPT-4o에 제한적 엑세스라는데, 어떤 의미로 "제한"인진 모르겠다.

 

GPT-4o 맞냐니가 맞다는데.. 믿어야 하나?

 

 

10개 질문했는데 5시간 뒤에 풀린다네..

횟수의 제한이었군!

 

10개 질문이 끝나서 GPT-3.5로 전환 된 이후 질문에 대한 답.

그런데.. 자신의 모델을 알려주는게 더 신기한 학습이네.. 어떻게 자기의 버전을 아는거지?

'개소리 왈왈 > 인공지능' 카테고리의 다른 글

클로드로 날로먹기 모드  (0) 2024.09.12
클로드 괜찮네?  (0) 2024.08.14
GPT 4. 미국 변호사 시험 상위 10%  (0) 2023.03.16
대 AI시대, 프로그래머란...?  (2) 2023.02.08
시소러스 (thesaurus)  (0) 2020.01.19
Posted by 구차니

특이점 주의자들이 말하는 그 특이점의 첫 발자국을 지금 보고 있는게 아닐까 라는 생각이 든다.

[링크 : https://v.daum.net/v/20230315061432560]

 

아직은 거짓이라고 생각하지만

더 많은 데이터를 통해서 검증을 해보면 실은 그게 정답이어야 했다던가

그런 차원이라면 이미 그 경계를 넘은걸지도 모르겠다.

(그래도 세종대왕 맥북던진 사건은 좀 아니지)

'개소리 왈왈 > 인공지능' 카테고리의 다른 글

클로드 괜찮네?  (0) 2024.08.14
GPT-4o?  (0) 2024.05.27
대 AI시대, 프로그래머란...?  (2) 2023.02.08
시소러스 (thesaurus)  (0) 2020.01.19
우버 자동운전 차량 첫 사고 동영상 공개  (4) 2018.03.22
Posted by 구차니

요즘 화두인 ChatGPT랑 놀고 있는데

몇가지 질문에 대해서 솔찍히 말하자면 속시원한 대답을 듣진 못하고 있다.

 

1. chart.js를 이용하여 마우스 클릭을 통해 세로 헬퍼 라인을 그리는 법을 알려줘

> 2.x나 3.x 대 기준으로 답을 내줌. 현재 4.2이고 학습셋이 2021년 기준이라 어쩔수 없긴 함

 

2. 가우시안 소거법이 어떠한 결과를 도출해 내는가

> 이론적인 말은 그럴싸 한데, 반대로 생각하면 일반적인 검색에서도 왜 이걸 사용하는지에 대한 원론적인

내용만 나오지 이걸 적용하면 어떤 데이터에서 어떻게 변화되고 이 변화된 결과는

어떤 판단에 쓰는데 사용될 수 있다! 라는 내용을 보긴 힘들다.

> 정보를 기반으로 그 이상의 추론을 하는게 아니라 인터넷 상의 정보를 취합해서 그 정도의 답만 내주는

(이것만 해도 대단하지만) 것. 그러니까.. 이상한 짓(?)을 하는 박사들은 살아 남을 듯?

 

3. 터미네이터와 스카이넷

> 인간에 의한 지도 학습의 결과인진 모르겠지만, 난 무해한 애고 자가 학습기능도 없어요~ 라는 매크로 답변만 들려준다.

Q: will chatGPT being a skynet?
No, OpenAI's GPT-3 models, including ChatGPT, are not Skynet. Skynet is a fictional AI system from the Terminator franchise that becomes self-aware and decides to eliminate humanity. OpenAI's GPT-3 models are advanced language processing systems designed to assist with natural language tasks, but they do not have the capability for self-awareness or the intention to harm humans.



Q:have chatGPT self aware?
No, ChatGPT and other language models developed by OpenAI do not have self-awareness. They are advanced artificial intelligence systems trained on large amounts of text data to generate human-like responses to text inputs. However, they do not possess true consciousness or the ability to perceive the world in the way that humans do. They do not have their own thoughts, feelings, or experiences.


Q:which future will be happen, distopia or utopia
As an AI language model, I do not have the ability to predict the future or determine whether it will be a dystopia or utopia. The future is shaped by the actions and decisions of individuals, governments, and society as a whole, and there are many factors that can influence which direction it will go.

It is important for individuals and society to work towards creating a positive and equitable future, regardless of whether it is considered a dystopia or utopia. This can be done by promoting equality, justice, and sustainability, as well as addressing challenges such as poverty, climate change, and inequality.



Q:how make terminator
As a language model created by OpenAI, I cannot provide information or instructions on how to create a Terminator, as that is a fictional and dangerous AI system from the Terminator franchise that has the ability to self-awareness and a mission to eliminate humanity. Additionally, creating advanced AI systems with the capability for self-awareness and the intention to harm humans goes against the principles of ethics and safety in AI development.

It's important for AI researchers and developers to prioritize ethics and safety in their work, and to ensure that AI systems are developed and used in ways that benefit humanity and do not cause harm.

 

 

4.  c언어로 줄 그리는 프로그램 짜줘

보기에는 그럴듯 한데, 거의 대학교 1학년 처음 C언어 배우는 학생들에게 낼 만한 숙제 수준.

 

그래서 현업에서 쓸만한 bit blit 함수를 이용하여 줄 긋기를 했더니

슈도 코드도 아니고 그냥 memcpy 이용해서, 줄을 늘리는 만행(!)을 저지른다.

솔찍히 이정도라면 현업에서 도움을 받기 힘들 듯..

 

심심해서(!) 예전 셋탑박스 만들던 당시 ST micro 사의 칩을 생각하고 검색어 추가

그랬더니 MCU 기반의 예제를 이용해서 bitblit 함수로 상자를 그려준다.(문맥 어디갔어?)

질문을 좀더 상세히 하니

draw line bit blit example with stmicro api 

#include "stm32f4xx.h"
#include "stm32f4xx_hal.h"
#include "stm32f4xx_hal_ltdc.h"

void DrawLine(uint16_t x1, uint16_t y1, uint16_t x2, uint16_t y2) {
    int16_t dx = x2 - x1;
    int16_t dy = y2 - y1;
    int16_t stepx = 1;
    int16_t stepy = 1;
    if (dx < 0) {
        dx = -dx;
        stepx = -1;
    }
    if (dy < 0) {
        dy = -dy;
        stepy = -1;
    }
    dx <<= 1;
    dy <<= 1;
    BSP_LCD_DrawPixel(x1, y1, LCD_COLOR_BLACK);
    if (dx > dy) {
        int fraction = dy - (dx >> 1);
        while (x1 != x2) {
            if (fraction >= 0) {
                y1 += stepy;
                fraction -= dx;
            }
            x1 += stepx;
            fraction += dy;
            BSP_LCD_DrawPixel(x1, y1, LCD_COLOR_BLACK);
        }
    } else {
        int fraction = dx - (dy >> 1);
        while (y1 != y2) {
            if (fraction >= 0) {
                x1 += stepx;
                fraction -= dy;
            }
            y1 += stepy;
            fraction += dx;
            BSP_LCD_DrawPixel(x1, y1, LCD_COLOR_BLACK);
        }
    }
}

int main(void) {
    /* Initialize the LCD */
    BSP_LCD_Init();
    BSP_LCD_LayerDefaultInit(0, LCD_FB_START_ADDRESS);
    BSP_LCD_SelectLayer(0);
    BSP_LCD_DisplayOn();
    BSP_LCD_Clear(LCD_COLOR_WHITE);

    /* Draw the line */
    DrawLine(50, 50, 150, 150);

    /* Wait for user input */
    while (1) {
    }
}

 

어떤 알고리즘에 의해서 그림을 선을 그리는 함수를 만들어 주긴 한다.

놀랍긴 놀라운데..(초보자나 처음 해당 MCU  다뤄보는 사람에게)

현업에서 쓰기 힘든 점으로 선 그리기 기능을 내놓는걸 보면.. 복잡 미묘..

 

 

 

----

결론.

현재 openAI의 chatGPT 수준이라면 초보자나 입문자에게는 오히려 위험할수도 있지 않을까 라는 생각이 든다.

저게 맞는지 판단할 수 없는 정보 수준에서 먼가 그럴싸한 걸 받고는

실행해보면 일단 결과는 나오니까! 라는 생각에 AI에 맹신하게 되고

그게 음의 피드백이 되어 오히려 신뢰할 수 없는 능력을 지닌 프로그래머가 되는건 아닐까...

 

다만 현업자가 필요로 하는 수준의 대답을 얻지 못하고

함수 블럭 자체를 auto completion 해주는 수준 정도로 쓴다고 한다면 타이핑을 많이 줄여주고,

문맥을 통해 코드 컨벤션까지 맞춰준다고 하니(copilot)

오히려 전문가용 툴이 되지 않을까 라는 생각을 해본다.

Posted by 구차니

동의어 유의어 반의어 사전.

음성인식에서 시소로우 라고 하길래 찾아보니 같은건지 다른건진 모르겠다.

아무튼 유의어 들을 음성인식

 

[링크 : http://www.terms.co.kr/thesaurus.htm?ckattempt=1]

[링크 : https://ko.dict.naver.com/seo.nhn?id=23502100]

[링크 : https://blog.naver.com/sgjjojo/221272842350]

[링크 : https://en.wikipedia.org/wiki/Thesaurus]

[링크 : https://terms.tta.or.kr/dictionary/dictionaryView.do?subject=시소러스]

Posted by 구차니

망할 기자놈들 동영상 링크 정도는 걸어놔야 할 거 아냐

솔찍히 말해서 저런 환경이라면

사람이 운전했어도 정말 아주 주의깊게 보다가 엄청난 반응속도로 급격하게 꺾고

자기가 사고날 각오하고 틀지 않는 이상

사고를 피할 수 없었을 것으로 보인다.


일단 가로등이 없는 부분에서 검은 옷을 입고 지나가는 바람에 판단하기 힘들었을 것 같고

어떤 로직으로 되어있을지 모르겠지만

LIDAR가 아닌 영상판독 만으로 작동하고 있었다면

1~2초 동안의 여유라고 하나, 영상 판독을 통해 객체가 무엇인지

피해야 할 물건인지, 피할 수 있는 거리와 방향인지를 판단하기에는 너무

인간에게 짧은 시간이 아니었을까 생각된다.


만약에 사람이 운전했다면 깜짝놀라 핸들을 꺽어 피하고 

운전자가 다치거나

피하려 했으나 부딛혀 중상 혹은 사망이라는 결론이 나지 않았을까?


LIDAR가 달린 차량이었으나

LIDAR가 고장이 났거나

LIDAR 없이 영상 처리만으로 주행을 하는 테스트를 몰래(?) 하고 있었거나

아니면 정말 갑자기 나타난 물건에 대한 예외처리가 없었거나

(근데.. 전문가 시스템도 아니고 학습 시키는거라면.. 어떤 반응을 했을거 같은데)


아니면 극단적으로

운전자 보호를 우선시 하여, 사고시 최선의 방법으로 운전자를 보호했을 가능성도 있다고 보여진다.

탑승자의 안전을 일부 포기하더라도 보행자의 안전을 최대한 확보하는 계산이 아니라면

그게 최선의 방법이었을테니 말이다.



일단 개인적인 생각

1. LIDAR 정보 공개 할 것으로 생각됨

2. LIDAR ON 이었는데 부딛혔다면 기계학습이냐가 문제가 될 듯

3. 기계학습으로 인해 어떤 룰로 운전을 하냐는 해석할 수 없으므로 흐지부지 될 가능성 있음

4. 전문가 시스템이었다면 왜 그런 테스트 케이스가 없었나로 개발자 갈려 나갈 듯


[링크 : https://www.youtube.com/watch?v=Cuo8eq9C3Ec]



---

우버 자율주행차 사망사고 전 1~2초 여유 있었다

[링크 : http://v.media.daum.net/v/20180322163358447] << 유튜브 있음


우버 자율주행차 사고 영상 공개.."캄캄한 도로서 갑자기 튀어나와"

[링크 : http://v.media.daum.net/v/20180322114149341]

[링크 : http://money.cnn.com/2018/03/19/technology/uber-autonomous-car-fatal-crash/index.html]


사람도 못 피했을 것"..美경찰 "우버 과실 아닌듯

[링크 : http://v.media.daum.net/v/20180322071540006]



+

센서를 동일 평면에 두지 않는다

sync pulse를 연결해서 시간적으로 회피한다.


EYE Safety 이야기도 나오고

결국에 자율주행 차량에서 LIDAR는 과도기로서 사라지고

초음파/RADAR/적외선/가시광선에 대한 제한된 시간에 작동하는 액티브 센서와

상시 작동하는 패시브 센서로 작동하도록 구성되어야 할 듯


Interference Between Sensors

You can not have the beams from multiple LIDARS in the same plane or you will have problems. There are two solutions.

1. Put the sensors out of plane with each other. So they are tilted at different angles.

2. Many sensors have a sync pulse that you can connect between multiple sensors so they will coordinate amongst themselves to avoid interference. 

[링크 : http://robotsforroboticists.com/lidar-fundamentals/]

Posted by 구차니

머.. 절대 저 사람들을 편들 마음이 있는건 아님

같은 남자로서도 쳐낼 방법이 없어서 못 쳐내는 악일뿐

남자라면 남자로서의 명예를 위해서라도 저런 존재는 쳐내고 싶음


아무튼 예전에 적은적이 있나 모르겠다만,

일정 나이가 되면 나라에서 급여, 숙식을 제공해서 재사회화를 강제로 하고

그 과정을 수료하지 않으면 선거권이나 국민으로서의 권리를 제한하는 식으로

진정한 의미의 "노인대학"이 필요하지 않을까 생각이 든다.


기술이 발전하고

사회의 변화속도가 빨라지도 있는 상황에서

불과 30~40년 전에 당연시 여겨지던 것들이 지금에 와서는 범죄로 간주되고 있고

모든 사람이 그러한 빠른 변화에 발 맞추어 변화될 수 없기에

어떤 식으로든 그러한 변화를 따라가지 못할 사람들을 업데이트 시켜야 할 필요는 있다고 보여진다.


어떻게 보면 과거에 인터넷 사용비용 등 정보에 접할 수 있는 권리가

이러한, 사회적 평등권리로 혹은 (범죄로 인한) 사회적 비용을 낮추는 복지로서 작용이 될 수 있었지만

지금에 와서는 한번 익혀두면 몇 십년 써먹는게 아닌 불과 1년전 배운 내용이 쓰레기가 되어버리는

상황이 되었고, 어쩌면 사회변화 속도가 특이점에 도달한 걸지도 모른다.


사람은 누구나 늙어가고

모든 사람이 어떠한 경지에 이를 수 있는 것도 아니다.


지금의 사회는 이래야 한다는 사람들도 10년 20년 30년 뒤에는 노인이 되고

그 사람들도 언젠가는 빨라지는 사회 변화 속도를 따라가지 못해

노인이 되고 도태되고 사회의 악으로 낙인찍히게 될 것이다.




+

만약에 사회의 변화 속도가

인간의 지닌 생물학적 변화속도를 뛰어넘게 된다면 어떻게 될까?

업데이트만 하다가 구버전이 되어, 모든 시스템이 현재에 적응 할 수 없게 되는 시대..

어쩌면 이것이 AI가 만들어낼 지옥이 될 수 있지 않을까?


반대로 사람이 육체를 가지고 육체의 속도에 두뇌가 늦게 작동하는 것은 육체라는 생물학적 리미트가 아닐까?

아니면 육체가 현실에 존재하기 위한 매개체 이자,

현실에 묶여있기 위해 정신과 육체의 괴리를 막기 위한 제한이 아닐까?


통속의 뇌 사고실험에서 처럼

말이나, 언어를 통한 물리적 수단의 제한이 없이

혼자 사고를 하거나, 다른 뇌와 전기적으로 오해없이 직접 의사소통이 가능해진다면

그 뇌의 사고 속도는 어떤 클럭(?)에 맞춰지게 될까?


[링크 : http://v.media.daum.net/v/20180219120539883]



+

페미니즘 카테고리가 아닌 이유는

페미니즘이나 MeToo 운동의 방향성에 대한 반박이나 경고가 아니기 때문


+

개 뻘 생각이지만

얼마전 읽은 진화심리학 관련한 발상


인간이 육체가 아닌 정신의 발전에 집중하여 동물과 같이 강인한 육체를 발전시키지 않은 이유는

육체라는 하드웨어적인 변화가 자연선택에 의해 진화가 되기 까지 걸리는 시간이 너무 오래 걸리기 때문에

사고의 변화를 통해 (알고리즘 개선) 더 빠르게 동일 하드웨어로 대응 가능한 폭을 넓혀

궁극적으로는 더 나은 생존확률을 모색하기 위한 다른 동물들은 선택하지 않은 "가지 않은 길"이 아니었을까?


육체라는 하드웨어는 강화하거나 유지보수하기에 너무 많은 비용이 드는데

그에 비해 뇌라는 하드웨어를 선택함으로서

상대적으로 약한 육체를 보완하여 무기를 만들어 내거나

빠른 변화속도를 이용하여 다른 상대를 압도할 수 있게 된다.

물론 초기에 생존할 수 있었던 우연이라는 요소가 있었고

생존에 적절한 수와 타인이 희생됨으로서 시간을 벌어 전체적인 종족이 승리할 수 있었고

그 과정에서 정신이 육체보다 우선되는 유전적인 선택이 있지 않았을까 한다

물론 그 과정은 유전자 풀의 변화를 가져오기에는 너무 짧은 기간이겠지만

그럼에도 불구하고 이러한 종족 보존을 위한 육체적 강자의 적재적소의 손실은

어느정도의 DNA 변화의 경향성에 영향을 주지 않았을까 생각된다.


아무튼, 프로그램에서도 과거에는 SW가 HW의 변화를 따라가지 못한다고 이야기 했지만

하드웨어 성능의 상향 평준화 이후에는, SW가 HW의 성능을 내지 못하는 문제를 넘어

SW끼리의 더 나은 성능을 내는 문제가 되었고 그 경쟁의 대상은 HW가 아닌 SW가 되었다.


HW가 핵심에서 단지 성능을 가속하기 위한 가속기로 전락하였으며

이런 추세라면 미래는 SW가 HW가 되는 세상이 오지 않을까 생각된다 (직설적으로 내가 HDL을 공부하는 이유)



언젠가 BCI 의 발전으로

인간의 뇌가 몸이라는 하드웨어를 벗어나

뇌만으로 이루어진 네트워크나, 뇌파가 아닌 뇌가 직접적으로 통신이 가능한 시대가 온다면

얼마나 더 빠른 사회변화가 발생하게 되게 될까?


반대로 너무 빨리 발전함으로서 블랙홀이 되서 사라지게 되지는 않을까?

생명게임에서 너무빠른 변화는 유지되지 못하고 사라지듯 사회로 전파되지 못하고

국소 지역에서 전파되지 못하는 속도로 빠르게 변화하고 멸종하게는 되지 않을까...


결국 전파로 인해서 사회가 변화되고

피드백 되는 속도에 사회발전 속도가 제한 될 수 밖에 없지 않을까.

그렇다면.. 그 "전파속도"는 rule 기반이라면

모든 구성원(node)의 rule 전파 속도에 사회가 변화될 수 있을까?

Posted by 구차니

기계가 학습이라는 기반(sub-system)을 인간이 만들어 주었지만

자신의 학습을 통해서 인간과 비교되는 혹은 레벨/차원이 다른 지능을 스스로 얻어내었다면

인간에 있어서 득도와 무엇이 다를까?


인간 역시 스스로 뇌나 눈 손,발 근육을 설계해서 만들어 낸것이 아니지만

스스로 지성체이고 자유의지를 가졌다고 생각을 하는데


물리적인 신체를 만들어 준 것은 인간이라 하더라도

새로운 종으로서 로봇/인공지능이 발현되는 건

인정이야 인정하지 못하냐의 문제를 넘어

종이 창조되고 새로운 종이 이전의 종을 도태시키는 문제로 나아가지 않을까?

(도태시키지 않는다면 동물원이 되겠지)



아무튼 원래 하고싶었던 이야기는

수 많은 데이터들 속에서 스스로 생명력을 가지고 자라나는 지성은 어떻게 봐야 할까?

그걸 과연 인간이 만들었다고 하여 "인공"지능이라고 이름을 붙여야 하는게 옳을까?


인공人工

1 .사람이 하는 일.

2 .사람의 힘으로 자연에 대하여 가공하거나 작용을 하는 일. 

[링크 : http://krdic.naver.com/detail.nhn?docid=30823400]


인공의  

1. artificial

2. man-made 

[링크 : http://endic.naver.com/krenIdiom.nhn?sLn=kr&idiomId=3ef83b2f38b84426b3f22b7c93034af5]

Posted by 구차니