Exposing Services in Kubernetes
Last updated
Last updated
Learn & practice AWS Hacking:HackTricks Training AWS Red Team Expert (ARTE) Learn & practice GCP Hacking: HackTricks Training GCP Red Team Expert (GRTE)
Istnieją różne sposoby na udostępnienie usług w Kubernetes, aby zarówno wewnętrzne, jak i zewnętrzne punkty końcowe mogły uzyskać do nich dostęp. Ta konfiguracja Kubernetes jest dość krytyczna, ponieważ administrator może dać dostęp atakującym do usług, do których nie powinni mieć dostępu.
Zanim zaczniesz enumerować sposoby, w jakie K8s oferuje udostępnienie usług publicznie, wiedz, że jeśli możesz wymienić przestrzenie nazw, usługi i ingressy, możesz znaleźć wszystko, co jest udostępnione publicznie za pomocą:
Usługa ClusterIP jest domyślną usługą Kubernetes. Daje ci usługę wewnątrz twojego klastra, do której inne aplikacje w twoim klastrze mogą uzyskać dostęp. Nie ma dostępu zewnętrznego.
Jednakże, można to uzyskać za pomocą Proxy Kubernetes:
Teraz możesz nawigować przez API Kubernetes, aby uzyskać dostęp do usług, używając tego schematu:
http://localhost:8080/api/v1/proxy/namespaces/<NAMESPACE>/services/<SERVICE-NAME>:<PORT-NAME>/
Na przykład możesz użyć następującego adresu URL:
http://localhost:8080/api/v1/proxy/namespaces/default/services/my-internal-service:http/
aby uzyskać dostęp do tej usługi:
Ta metoda wymaga, abyś uruchomił kubectl
jako uwierzytelniony użytkownik.
Wyświetl wszystkie ClusterIP:
Gdy NodePort jest wykorzystywany, wyznaczony port jest udostępniany na wszystkich Węzłach (reprezentujących Wirtualne Maszyny). Ruch kierowany do tego konkretnego portu jest następnie systematycznie przekierowywany do usługi. Zazwyczaj ta metoda nie jest zalecana z powodu jej wad.
Lista wszystkich NodePortów:
Przykład specyfikacji NodePort:
Jeśli nie określisz nodePort w yaml (to jest port, który zostanie otwarty), zostanie użyty port w zakresie 30000–32767.
Ekspozycja usługi na zewnątrz za pomocą load balancera dostawcy chmury. Na GKE uruchomi to Network Load Balancer, który da ci jeden adres IP, który przekieruje cały ruch do twojej usługi. W AWS uruchomi Load Balancer.
Musisz płacić za LoadBalancer za każdą eksponowaną usługę, co może być kosztowne.
Lista wszystkich LoadBalancers:
Zewnętrzne adresy IP są eksponowane przez usługi typu Load Balancers i są zazwyczaj używane, gdy korzysta się z zewnętrznego Load Balancera dostawcy chmury.
Aby je znaleźć, sprawdź load balancery z wartościami w polu EXTERNAL-IP
.
Ruch, który wchodzi do klastra z zewnętrznym adresem IP (jako adres docelowy), na porcie usługi, będzie przekierowywany do jednego z punktów końcowych usługi. externalIPs
nie są zarządzane przez Kubernetes i są odpowiedzialnością administratora klastra.
W specyfikacji usługi externalIPs
mogą być określone wraz z dowolnym z ServiceTypes
. W poniższym przykładzie, "my-service
" może być dostępny dla klientów na "80.11.12.10:80
" (externalIP:port
)
Z dokumentacji: Usługi typu ExternalName mapują usługę do nazwy DNS, a nie do typowego selektora, takiego jak my-service
lub cassandra
. Te usługi określasz za pomocą parametru spec.externalName
.
Ta definicja usługi, na przykład, mapuje usługę my-service
w przestrzeni nazw prod
do my.database.example.com
:
Kiedy szukasz hosta my-service.prod.svc.cluster.local
, usługa DNS klastra zwraca rekord CNAME
o wartości my.database.example.com
. Uzyskiwanie dostępu do my-service
działa w ten sam sposób, co inne usługi, ale z kluczową różnicą, że przekierowanie odbywa się na poziomie DNS zamiast przez proxy lub przekazywanie.
Wymień wszystkie ExternalNames:
W przeciwieństwie do wszystkich powyższych przykładów, Ingress NIE jest typem usługi. Zamiast tego, znajduje się przed wieloma usługami i działa jako „inteligentny router” lub punkt wejścia do twojego klastra.
Możesz zrobić wiele różnych rzeczy z Ingress, a istnieje wiele typów kontrolerów Ingress, które mają różne możliwości.
Domyślny kontroler ingress GKE uruchomi dla Ciebie HTTP(S) Load Balancer. To pozwoli Ci na routowanie oparte na ścieżkach oraz subdomenach do usług zaplecza. Na przykład, możesz wysłać wszystko na foo.yourdomain.com do usługi foo, a wszystko pod ścieżką yourdomain.com/bar/ do usługi bar.
YAML dla obiektu Ingress na GKE z L7 HTTP Load Balancer może wyglądać tak:
Wypisz wszystkie ingressy:
Chociaż w tym przypadku lepiej jest uzyskać informacje o każdym z osobna, aby lepiej je przeczytać:
Ucz się i ćwicz Hacking AWS:HackTricks Training AWS Red Team Expert (ARTE) Ucz się i ćwicz Hacking GCP: HackTricks Training GCP Red Team Expert (GRTE)