AI 뉴스

GPU Cloud & AI Factory 2026 — Blackwell(DGX B200)부터 GB200 NVL72까지: 비용(TCO)·성능(p95)·전력(kW)으로 설계하는 엔터프라이즈 인프라

웅ㅋㅋ 각 글은 따로따로 올려도 완전 OK야. 지금은 “연재형 필러(기둥 글)”를 쌓는 단계라서, 글 하나가 독립적으로 읽혀도 되고 서로 내부링크로 이어지면 더 좋다는 구조로 가고 있어.

그럼 바로 5번 원고(복붙 즉시 예약발행 가능) 간다.
이번 글은 **GPU Cloud / AI Factory / Blackwell / 랙 스케일 / 비용 최적화(TCO)**라서 고단가 키워드가 잘 붙는 축이야.


✅ 게시용 메타데이터(복사해서 CMS 입력)

  • Title (H1): GPU Cloud & AI Factory 2026 — Blackwell(DGX B200)부터 GB200 NVL72까지: 비용(TCO)·성능(p95)·전력(kW)으로 설계하는 엔터프라이즈 인프라

  • Slug/URL: gpu-cloud-ai-factory-2026-blackwell-dgx-b200-gb200-nvl72-tco

  • Category: GPU & AI Infrastructure

  • Tags: gpu-cloud, ai-factory, nvidia-blackwell, dgx-b200, gb200-nvl72, rack-scale, nvlink, inference-cost, llmops, tco, datacenter-power, liquid-cooling

  • Meta Description (160자 내외): 2026년 AI 인프라는 ‘GPU 스펙’이 아니라 AI Factory 운영(비용·전력·냉각·지연·멀티테넌시) 문제입니다. DGX B200/GB200 NVL72 기반의 의사결정 프레임과 TCO 모델·체크리스트를 제공합니다.

  • OG Title: GPU Cloud & AI Factory 2026 — Blackwell Rack-Scale Economics

  • OG Description: DGX B200/GB200 NVL72를 기준으로 추론 비용(토큰당), 지연(p95), 전력(kW), 냉각(수랭), 네트워크를 포함한 엔터프라이즈 GPU 인프라 설계 백서.

  • 대표 이미지(생성 프롬프트): 본문 “Image Prompts” 1번 추천

  • 권장 발행일: 2026-02-26 (Asia/Seoul)


GPU Cloud & AI Factory 2026 — Blackwell(DGX B200)부터 GB200 NVL72까지: 비용(TCO)·성능(p95)·전력(kW)으로 설계하는 엔터프라이즈 인프라

2026년의 GPU 인프라 논쟁은 “어떤 GPU가 빠르냐”가 아니다.
AI Factory는 결국 운영이다:
(1) 토큰당 비용, (2) p95 지연, (3) 전력/냉각, (4) 네트워크/스토리지, (5) 멀티테넌시 통제
이 다섯 개를 동시에 만족시키는 설계가 “이기는 인프라”다.


Executive Summary (결정이 필요한 사람을 위한 9문장)

  1. 엔터프라이즈 GPU 인프라는 이제 “서버 구매”가 아니라 AI Factory 구축이다: 추론/학습/서빙/관측/보안/비용이 하나의 운영체계로 묶인다.

  2. 2026년 Blackwell 기반의 대표 예로, NVIDIA DGX B200은 GPU 메모리 1,440GB(HBM3e), 64TB/s HBM3e 대역폭, NVLink 14.4TB/s(aggregate), 최대 전력 약 14.3kW 같은 운영 변수(전력/대역/냉각)를 명시한다. (NVIDIA)

  3. NVIDIA GB200 NVL72는 36 Grace CPU + 72 Blackwell GPU를 랙 스케일로 묶고, 72-GPU NVLink 도메인을 강조하며 “실시간 트릴리언(1조) 파라미터급 추론”을 핵심 가치로 제시한다. (NVIDIA)

  4. 따라서 설계의 중심은 “GPU가 몇 개냐”가 아니라, 어떤 워크로드(추론/학습/RAG/에이전트)를 어떤 SLA(p95)로 어떤 비용/전력 한도에서 돌릴 건지다.

  5. 비용(TCO)은 토큰만 보면 틀린다. 실제 총비용은 Compute(추론/학습) + 네트워크(패브릭) + 스토리지(데이터 파이프) + 전력/냉각 + 운영(관측/로그) + 다운타임으로 결정된다.

  6. “클라우드 vs 온프레”는 종교전이 아니다. 결정 변수는 사용 패턴(항상 vs 버스트), 데이터 민감도, 네트워크/egress, 운영 인력, 전력/공간이다.

  7. 미래 전망까지 보려면, NVIDIA 뉴스룸은 2026-01-05에 “Rubin 플랫폼”을 언급하며 추론 토큰 비용 최대 10배 절감 같은 방향성을 제시했다(비교/조건은 반드시 확인 필요). (NVIDIA Newsroom)

  8. 이 글은 “랙 스케일/클라우드 GPU”를 의사결정 매트릭스 + TCO 모델 + 구축 체크리스트 + 운영 지표로 정리해, 그대로 복사해서 설계 문서로 쓸 수 있게 만든다.

  9. 결론: 2026년 GPU 인프라 승부는 스펙이 아니라 **운영 가능한 설계(전력·냉각·네트워크·비용·보안·LLMOps)**에서 난다.


1) AI Factory란 무엇인가: GPU 몇 대가 아니라 “운영 시스템”이다

AI Factory는 “GPU 클러스터”를 멋있게 부르는 말이 아니다.
다음이 결합된 시스템을 말한다.

  • Compute: 추론/학습 인스턴스, 배치, 멀티테넌시

  • Fabric: GPU-GPU 통신(NVLink 도메인), 랙 간 네트워크(IB/Ethernet)

  • Data: 데이터 파이프라인/스토리지/캐시/버전

  • Ops: 관측성(지연 p95/비용/에러), 릴리즈 게이트, 롤백

  • Security/Governance: 권한(테넌트 격리), 키관리, 감사 로그

이 정의를 이해하면, “GPU 고르기”는 설계의 시작일 뿐이고, 진짜는 전력/냉각/네트워크/운영이라는 걸 알게 된다.


2) 2026 Blackwell 기준 ‘운영 변수’로 보는 스펙 읽는 법 (스펙을 ‘설계’로 번역)

2-1. DGX B200을 “운영 변수”로 읽기

DGX B200 페이지에 명시된 값 중, 설계에 직결되는 것만 뽑으면 이렇다. (NVIDIA)

  • GPU: 8× Blackwell

  • 총 GPU 메모리: 1,440GB

  • HBM3e 대역폭: 64TB/s

  • NVLink 대역폭: 14.4TB/s(aggregate)

  • 최대 전력: 약 14.3kW

  • (그 외 CPU/메모리/네트워크 포트도 명시)

여기서 “고성능”보다 중요한 질문은 이거다.

  • 14.3kW를 어떤 랙/전원/UPS에서 감당할 건가?

  • 이 장비를 몇 대 넣으면 전력/냉각 한계가 어디서 먼저 터질까?

  • 네트워크(예: ConnectX-7급) 구성은 랙 간 병목을 막을 수 있나? (NVIDIA)

결론: DGX B200은 “GPU가 빠르다”보다 전력/냉각/패브릭 설계를 강제한다.


2-2. GB200 NVL72를 “아키텍처 변화”로 읽기

GB200 NVL72는 랙 스케일로 72 GPU NVLink 도메인을 강조한다. (NVIDIA)

  • 36 Grace CPU + 72 Blackwell GPU

  • 72-GPU NVLink 도메인(단일 거대 GPU처럼 동작한다는 컨셉)

  • “실시간 트릴리언 파라미터 LLM 추론”을 전면에 둠 (NVIDIA)

이게 의미하는 실전 변화는 3가지다.

  1. 초대형 추론에서 “GPU 간 통신”이 병목인데, NVLink 도메인을 크게 만들수록 병목을 줄일 수 있다(컨셉 수준).

  2. “랙 스케일”은 서버 구매가 아니라 데이터센터 인프라(전력/수랭/배선/공간) 프로젝트가 된다.

  3. 결국 인프라 의사결정이 “ML팀만의 선택”이 아니라, 시설/전력/보안/재무/플랫폼이 같이 하는 의사결정이 된다.


3) GPU 인프라 의사결정 매트릭스(클라우드 vs 온프레 vs 랙 스케일)

이 표는 회의에서 바로 쓰라고 만든 “결정표”다.

질문 클라우드 GPU가 유리 온프레(DGX급)가 유리 랙 스케일(NVL72급)이 유리
사용 패턴 버스트/스파이크 많음 항상 일정 사용 초대형 추론/학습이 상시
데이터 민감도 낮~중(통제 가능하면) 높음(내부 통제) 매우 높음(대규모 운영)
egress/데이터 이동 작음 내부 데이터 중심 내부 데이터 중심(대규모)
운영 인력 적음(매니지드 활용) 있음(플랫폼 운영) 매우 필요(시설/운영)
전력/냉각/공간 필요 없음 필요(14kW급 고려) 매우 큰 프로젝트
목표 빠른 시작/실험 예측 가능한 TCO 토큰당 비용/지연 최적화

4) TCO(총소유비용) 모델: “토큰당 비용”만 보지 말고 ‘AI Factory 비용’을 보라

여기부터가 진짜 고단가 구간이다. 구매/도입 검토 검색 의도는 거의 여기서 터진다.

4-1. AI Factory TCO(연간/월간) 구성요소

  • Compute: GPU/CPU 비용(또는 클라우드 과금)

  • Network/Fabric: 스위치/IB/Ethernet/케이블링/운영

  • Storage/Data: 데이터 파이프, 캐시, 백업, 보존 정책

  • Power/Cooling: 전기요금, 냉각(특히 수랭), 시설비

  • Ops/Observability: 모니터링/로그/보안 이벤트/감사 리포트

  • Downtime: 장애/유지보수/공급망 지연의 비용(이게 은근히 큼)

4-2. “변수 기반” 비용식(숫자 단정 없이 설계 문서로 사용)

  • 월 질의량: Q

  • 평균 입력 토큰: Tin, 평균 출력 토큰: Tout

  • 평균 p95 목표: SLO_p95

  • 캐시 히트율: H

  • 재랭킹 비율: Rerank_rate

  • 전력: kW_total, 전기 단가: $/kWh

  • 가동률: Uptime

월 비용(개념)

  • Inference: Q × (Tin+Tout) × token_cost

  • Retrieval/RAG(있다면): Q × retrieval_cost × (1-H) + Q × rerank_cost × Rerank_rate

  • Power: kW_total × 24 × 30 × $/kWh

  • Ops/Logs: log_GB × retention × storage/queries

DGX B200급 장비는 “전력/냉각” 변수가 무시할 수 없다는 걸 스펙 자체가 보여준다(최대 전력 약 14.3kW). (NVIDIA)


5) 성능(p95) 설계: GPU가 좋아져도 p95는 ‘데이터 파이프’에서 터진다

GPU 인프라 글에서 사람들이 흔히 놓치는 지점이 이거다.

  • 모델 추론은 빨라졌는데,

  • RAG 검색, 재랭킹, 네트워크, 스토리지에서 p95가 터진다.

5-1. p95 지연 예산(latency budget) 분해(실무 템플릿)

  • Request 인증/정책: Gateway

  • Retrieval: 벡터/키워드 검색 + 재랭킹

  • Context building: 문서 스니펫 구성

  • Inference: 모델 호출

  • Post-processing: 필터/마스킹

  • 네트워크: 응답 전달

핵심: GPU를 올리기 전에, “지연 예산”을 먼저 써야 한다.
그래야 GPU 투자로 p95가 줄어드는지 확인할 수 있다.


6) 구축 체크리스트(온프레/AI 워크스테이션 판매에도 바로 쓰이는 “고단가 문서”)

comvillain.com이 “조립컴퓨터 잡글”이 아니라 엔터프라이즈/프로 워크스테이션/온프레 AI 인프라로 판매/구축을 하고 싶다면, 아래 체크리스트가 “제품 상세페이지”보다 강력한 전환 도구가 된다.

6-1. 전력/냉각(8)

  1. 랙당 전력 한도(kW)와 여유율

  2. UPS/전원 이중화 설계

  3. 발열/공조 한계, 수랭 여부

  4. 장비 1대(예: 14kW급) 넣을 때 랙 배치 가능성 (NVIDIA)

  5. 설치/유지보수 동선(랙 스케일은 특히 중요)

  6. 장애 시 냉각 실패가 주는 위험(다운타임 비용 포함)

  7. 전기 요금 단가 기반 월 전력비 추정

  8. 증설(Scale-out) 시 전력/냉각이 병목인지 확인

6-2. 네트워크/패브릭(8)

  1. 랙 내부 통신(NVLink 도메인) 전략

  2. 랙 간 네트워크(IB/Ethernet) 설계

  3. east-west 트래픽(서버 간) 병목 테스트

  4. 스토리지/데이터 파이프 대역폭

  5. 멀티테넌시 격리(네트워크 세그먼트)

  6. 모니터링(지연 p95)에서 네트워크 분해 가능

  7. 케이블링/포트 계획(랙 스케일은 작업량이 폭발)

  8. 네트워크 장애가 모델 SLA에 미치는 영향

6-3. 운영/보안(8)

  1. 키관리/비밀관리(Secrets)

  2. 테넌트 격리(권한/데이터 경계)

  3. 감사 로그(누가 어떤 워크로드를 돌렸나)

  4. 비용 폭탄 방지(Quota/Rate limit)

  5. 릴리즈 게이트(드라이버/라이브러리/모델 업데이트)

  6. 장애 대응 런북(runbook)

  7. 관측성 대시보드(비용/지연/에러/품질)

  8. 공급망/부품/펌웨어 업데이트 정책


7) Case Study: “클라우드 버스트 + 온프레 베이스” 하이브리드 AI Factory

상황

  • 평소에는 추론 트래픽 일정

  • 분기 말/캠페인 때 트래픽 폭발(버스트)

  • 데이터는 내부 문서가 많아 egress가 부담

  • 목표: 토큰당 비용을 낮추면서 p95를 안정화

설계(전형적인 성공 패턴)

  • 온프레(DGX급): 상시 워크로드(예측 가능한 TCO)

  • 클라우드 GPU: 피크 버스트 흡수(필요할 때만 비용)

  • 정책/감사/관측성: 양쪽 환경을 동일한 기준으로 통제(LLMOps)

왜 이게 잘 되냐?

  • 항상 쓰는 GPU는 온프레가 경제적일 수 있고

  • 폭발 트래픽은 클라우드가 유리할 수 있다

  • 단, 이 구조는 “관측성/정책/비용 통제”가 없으면 운영이 망가진다(3번 글 LLMOps와 연결).


8) Future Outlook: “토큰당 비용” 최적화는 더 강해진다(Rubin 방향성 포함)

NVIDIA 뉴스룸은 2026-01-05에 Rubin 플랫폼을 소개하며, Blackwell 대비 추론 토큰 비용 최대 10배 절감 같은 방향성을 언급한다(조건/맥락은 반드시 확인하며 설계 문서에 ‘가정’으로 표기). (NVIDIA Newsroom)

여기서 우리가 얻을 “운영적” 결론은 이거다.

  • GPU가 좋아질수록, 인프라 경쟁은 모델/서빙/캐시/라우팅/정책/관측성 최적화로 이동한다.

  • 즉, 하드웨어만이 아니라 **AI Factory 운영체계(LLMOps + Security + Cost Engineering)**가 핵심이 된다.


9) 6+ Image Prompts (전문성 강화용)

형식: [Image Concept] + [Prompt (English)] + [Description (Korean)]

  1. [AI Factory Rack-Scale Data Center]
    Prompt (English): “Futuristic AI factory data center, rack-scale GPU clusters with liquid cooling manifolds, glowing high-speed fabric interconnects, engineers with AR dashboards showing cost per token and p95 latency, cinematic 3D render, 8k”
    Description (Korean): 랙 스케일 GPU + 수랭 + 운영 대시보드(토큰 비용/p95)를 ‘AI Factory’로 시각화.

  2. [DGX-Class Node Power & Cooling Blueprint]
    Prompt (English): “Technical blueprint of a DGX-class AI node showing power (kW), airflow/liquid cooling paths, NVLink/NVSwitch fabric, clean enterprise engineering diagram style, ultra-detailed, 8k”
    Description (Korean): 전력(kW)·냉각·패브릭이 설계를 지배한다는 메시지.

  3. [72-GPU NVLink Domain Concept]
    Prompt (English): “Rack-scale 72-GPU NVLink domain concept visualization, GPUs forming a single unified accelerator, liquid-cooled rack, sleek sci-fi engineering aesthetic, 8k”
    Description (Korean): 72-GPU 도메인을 ‘단일 거대 가속기’ 컨셉으로 시각화.

  4. [TCO Model Infographic]
    Prompt (English): “Enterprise AI infrastructure TCO infographic, compute vs network vs storage vs power/cooling vs operations vs downtime, minimalist futuristic corporate style, 8k”
    Description (Korean): 토큰만이 아니라 전체 TCO를 6항목으로 정리.

  5. [Latency Budget Decomposition]
    Prompt (English): “Latency budget decomposition for LLM inference with RAG, gateway, retrieval, reranking, inference, post-processing, network, timeline infographic, futuristic UI, 8k”
    Description (Korean): p95 지연을 단계별로 쪼개는 템플릿.

  6. [Cost per Query Dashboard]
    Prompt (English): “Cost-per-query dashboard for AI factory operations, token cost, retrieval cost, cache hit rate, power cost estimate, p95 latency, modern enterprise control panel, 8k”
    Description (Korean): ‘질의당 비용’으로 운영하는 대시보드.

  7. [Hybrid Cloud Burst Architecture]
    Prompt (English): “Hybrid AI factory architecture, on-prem GPU base load plus cloud burst capacity, unified policy engine and observability layer, isometric 3D blueprint, 8k”
    Description (Korean): 온프레 베이스 + 클라우드 버스트 + 통합 운영 계층.


10) FAQ (AEO 최적화 10개)

  1. Q. AI Factory는 단순히 GPU를 많이 사는 건가요?
    A. 아닙니다. AI Factory는 GPU, 네트워크/스토리지, 전력/냉각, 운영(관측성/릴리즈/비용 통제), 보안/감사까지 결합된 운영 시스템입니다.

  2. Q. DGX B200 같은 장비에서 가장 먼저 확인해야 할 건 뭔가요?
    A. 스펙보다 전력/냉각입니다. DGX B200은 최대 전력 약 14.3kW 같은 값이 명시되어 있어 시설 설계를 강하게 요구합니다. (NVIDIA)

  3. Q. GB200 NVL72 같은 랙 스케일은 무엇이 다른가요?
    A. 72-GPU NVLink 도메인을 강조하며 랙 단위 설계를 전면에 둡니다. 즉 서버 구매가 아니라 데이터센터 인프라 프로젝트가 됩니다. (NVIDIA)

  4. Q. 클라우드 GPU가 무조건 비싼가요?
    A. 사용 패턴에 따라 다릅니다. 버스트가 많고 빠른 시작이 필요하면 클라우드가 유리할 수 있고, 상시 사용이면 온프레가 유리할 수 있습니다(운영 인력/전력/공간 변수 포함).

  5. Q. 비용 비교에서 가장 많이 놓치는 항목은?
    A. 검색/재랭킹/인덱싱(LLM+RAG 운영비), 전력/냉각, egress, 다운타임 비용입니다. 토큰 단가만 보면 결정을 잘못할 수 있습니다.

  6. Q. p95 지연은 GPU만 늘리면 해결되나요?
    A. 아닙니다. RAG의 검색/재랭킹, 네트워크, 스토리지에서 p95가 터질 수 있습니다. 지연 예산을 분해해서 병목을 찾아야 합니다.

  7. Q. “토큰당 비용”을 낮추려면 무엇부터 해야 하나요?
    A. (1) 컨텍스트 길이 상한, (2) 캐시 히트율, (3) 조건부 재랭킹, (4) 질의당 비용 대시보드가 우선입니다.

  8. Q. 미래에는 토큰 비용이 더 내려가나요?
    A. 벤더들은 토큰 비용 절감을 큰 방향으로 제시하고 있습니다. 예를 들어 NVIDIA 뉴스룸은 Rubin 플랫폼에서 Blackwell 대비 추론 토큰 비용 최대 10배 절감 같은 방향성을 언급합니다(조건/맥락 확인 필요). (NVIDIA Newsroom)

  9. Q. 온프레 + 클라우드 하이브리드는 왜 많이 쓰나요?
    A. 상시 워크로드는 온프레, 피크 버스트는 클라우드로 분산하면 비용/성능 균형을 잡기 쉬워집니다. 단, 운영/정책/관측성이 통합돼야 합니다.

  10. Q. 이런 인프라 글이 애드센스/SEO에 왜 유리하죠?
    A. “구매 의사결정(TCO/리스크/운영)”형 콘텐츠는 사용자 의도가 강하고, 단순 스펙 나열보다 깊이 있는 정보를 제공하기 쉬워서 고단가 키워드/신뢰 신호에 유리합니다(단, 과장/복붙은 금물).


Proof Box (근거/검증)

  • DGX B200의 GPU 메모리(1,440GB), HBM3e 대역폭(64TB/s), NVLink 14.4TB/s, 최대 전력(~14.3kW) 등 주요 스펙은 NVIDIA 공식 페이지에 명시되어 있습니다. (NVIDIA)

  • GB200 NVL72의 36 Grace CPU + 72 Blackwell GPU 및 72-GPU NVLink 도메인 컨셉은 NVIDIA 공식 페이지/Blackwell 아키텍처 페이지에 설명되어 있습니다. (NVIDIA)

  • Rubin 플랫폼 방향성(추론 토큰 비용 절감 등)은 NVIDIA 뉴스룸(2026-01-05)에서 언급됩니다. (NVIDIA Newsroom)


한계 / 리스크(반례 포함)

  1. 스펙 수치는 “조건(구성/소프트웨어/워크로드)”에 따라 체감이 달라질 수 있어, 반드시 자기 워크로드로 벤치해야 합니다.

  2. 온프레 구축은 전력/냉각/공간/공급망 변수가 커서, TCO가 장비 가격만으로 결정되지 않습니다.

  3. 랙 스케일은 조직/시설 프로젝트 성격이 강해, 운영 인력/변경관리(드라이버/라이브러리/보안) 없이는 실패하기 쉽습니다.

  4. “미래 로드맵”은 벤더 발표가 방향성을 주지만, 구매/투자는 일정/공급/정책 변수를 함께 고려해야 합니다. (NVIDIA Newsroom)


Update Log

  • v1.0 (2026-02-24): DGX B200/GB200 NVL72 기반 운영 변수(전력/대역/도메인) 해석, TCO 모델, 구축 체크리스트, 하이브리드 사례, Rubin 방향성 반영 (NVIDIA)

  • v1.1 예정: (1) “질의당 비용” 계산기 입력 변수 표준 (2) 전력/냉각 산정 템플릿 (3) 랙 스케일 네트워크 설계 심화


커뮤니티 토론 질문(댓글 유도)

  1. 너희 조직은 GPU를 “상시 사용”하나요, “버스트”가 심한가요? (이 답이 온프레/클라우드를 갈라요)

  2. p95 지연이 터질 때, 원인이 GPU인가요 검색/네트워크인가요?

  3. 전력/냉각(특히 kW/수랭)이 실제 구매 결정에 영향을 준 적 있나요?


내부 링크(이전/다음 글 연결)

  • 이전 글(1): Enterprise RAG Reference Architecture 2026 — Gateway·Policy·Audit

  • 이전 글(2): Fine-tuning vs RAG vs Hybrid — 의사결정 프레임워크

  • 이전 글(3): Enterprise LLMOps 2026 — 토큰 비용·p95·환각률 운영 체계

  • 이전 글(4): Agentic AI Security 2026 — Tool Calling 위협 모델/방어 설계

  • 다음 글(6 예고): AI Cybersecurity & Data Privacy 2026 — PII/로그/감사/데이터 경계 설계(가치 높은 보안 글)


원하면 바로 다음으로 6번 원고 이어갈게:
“AI Cybersecurity & Data Privacy 2026 — PII/기밀 데이터 환경에서 합법적·감사 가능한 LLM 운영”
(이번 5번이 인프라/비용 쪽이라면, 6번은 보안/규정 쪽이라 CPC가 또 높게 붙는 축이야.)

NVIDIA DGX B200
The foundation for your AI factory.

이전글 AI Cybersecurity & Data Privacy 2026 — PII/기밀 데이터 환경에서 합법적·감사 가능한 LLM 운영(제로트러스트·로그·거버넌스)
다음글 Agentic AI Security 2026 — Tool Calling(툴콜) 시대의 위협 모델과 방어 설계(프롬프트 인젝션/과도한 권한/공급망)
Warning: include_once(/volume4/web/rebuilder/theme/main/skin/board/main_board/view_comment.skin.php): Failed to open stream: No such file or directory in /volume4/web/rebuilder/bbs/view_comment.php on line 127 Warning: include_once(): Failed opening '/volume4/web/rebuilder/theme/main/skin/board/main_board/view_comment.skin.php' for inclusion (include_path='/volume4/web/rebuilder/plugin/htmlpurifier/standalone:.:/usr/share/pear') in /volume4/web/rebuilder/bbs/view_comment.php on line 127